孫 路
黑龍江省法學研究所,黑龍江 哈爾濱 150000
人工智能技術是現代科技的高端技術,其在各個領域中的應用,可以說一次技術革命。人工智能技術的應用給人們帶來機遇和挑戰并存,人工智能技術的應用可以方便人們的生活,但其改變了人們的工作方式,很多領域工人需要在人工智能的背景下完成本職工作。人工智能是一種新型高端技術,其在應用的過程中沒有形成一些制度的約束,人類每次技術革命,都存在一定的問題,在技術領域中,在大數據的驅動下,人工智能技術越來越完善,但在法律成面上,人工智能是否會對人類的利益造成侵犯,但人工智能技術的重要產品機器人,機器人的學習與應用能力在深入研究的過程中可能會超越法律的底線,如何防范人工智能存在的法律風險,讓人工智能技術的快速發展,其應用過程中提高其工作效率,促進其它行業的快速發展,拉動我國經濟的大發展。
大數據與人工智能都是科技領域中的先進技術,二者發展都是計算機技術發展到一定階段成果。現在人們生活與學習、工作都涉及到大量的數據,如何對這些數據進行挖掘,提煉有用的數據,促進其數據的應用,提高數據的應用效果,大數據技術的應用,對提高數據存儲、傳輸、處理、有效應用都達到一定效果,對提高數據的利用效率起到重要作用。人工智能是計算機科學領域研究的重要成果,人工智能具有人的一些思維,能完成人的一些工作,人工智能技術的應用改變了人類的工作方式,對促進社會的發展進步起到重要作用。人工智能在具體的應用過程中必須在大數據驅動下完成,首先人工智能完成工作需要大量數據的支持,大數據技術掌握大量的數據,是人工智能完成工作的基礎。其次,人工智能具有人的學習功能,但現在人工智能技術與機器人不屬于同一個范疇,二者有不同點,現在人工智能的應用在某個領域實現了智能化。最后,人工智能是現代高科技,在其完成工作需要借助“大數據”,人工智能技術的應用,加快大數據技術獲取大量數據,為大數據的應用提供了技術支持。因此大數據與人工智能高度融合,是二者技術發展的需要,也是社會發展為大數據、人工智能的發展提出了新要求,大數據技術、人工智能技術的應用促進了其它行業的發展,同時其它行業的快速發展,促使大數據技術與人工智能技術的更新,以適合其它行業發展需要。
大數據與人工智能都需要網絡環境支持,在互聯網+時代,個人信息基本是透明的,如何保護個人信息也是大數據時代的重點課題?,F在一些不法分子借助網絡環境,利用人工智能技術進行竊取個人信息,嚴重的時候給用戶帶來一定的損失。現在利用高科技進行網絡犯罪的現象很多,這就是人工智能技術的應用帶來的法律風險,國家出臺一系列政策打擊網絡犯罪,取得一定的效果,但網絡犯罪現象時有發生。大數據驅動的人工智能給個人信息保護帶來一定的問題,但我們需要正確面對人工智能帶來的法律風險,只要用戶提高法律風險意識,在網絡上正確操作,一般情況個人信息不會泄露,現有的網絡安全技術對用戶信息起到一定的保護作用,但增強用戶網絡安全意識、法律風險防范意識是有效的解決措施。
人工智能的發展方向具有人的思維、情感、行為等人類活動。但現在人工智能的成果存在一定的問題,比如有的圖像識別軟件,錯誤的將黑人標記為“黑猩猩”、美國微軟公司推出的聊天機器人Tay就存在“性別歧視”“種族歧視”等問題。現在全世界人們都反對種族歧視問題,因此人工智能產品觸犯了法律倫理,存在一定的法律風險,人工智能的發展是大數據驅動下完成,數據的類型、數量非常多,肯定存在不良數據,讓人工智能產品與法律倫理相違背。
人工智能發展到一定程度是否取代人,不受人控制的問題是一些專家一直研究的課題。人是否會受到機器人傷害的問題,通過研究發現機器人的確存在傷人的問題,2016年11月18日,網絡盛傳深圳高交會上發生“我國首例機器人傷人事件”,名叫“小胖”的機器人突發故障而“殺傷力爆棚”,在沒有指令的情況下自行打砸展臺玻璃、砸傷路人。機器人觸犯法律是否會受到法律制裁,現在我國的刑法還沒有明確機器人刑事犯罪處罰的條例,在具體的應用過程中存在基于大數據的人工智能與刑事犯罪風險。
加強人工智能時代個人信息保護風險防范路徑,首先,需要明確個人信息的范圍?,F在我國刑法規定出賣或購買個人信息一定的數量定為刑事犯罪,會受到法律的制裁,但信息取證現在存在一定困難。其次,對于個人信息的有效獲取應當堅持和遵循自愿原則。大數據驅動人工智能獲得個人信息需要遵循自愿原則,不能違背個人意識獲得個人信息。最后,在得到社會個體具體承諾的情況下,也要堅持“數據統計結果歸商家,個人信息所有權歸自己”的原則。個人信息是個人的產權,需要達到個人信息永遠是個人的,不是某個商家的。
法律倫理現象是有不良大數據造成的,要解決人工智能法律倫理困境問題,首先優化數據算法,這是解決人工智能法律倫理問題的根本方式,從源頭解決不良數據問題,但現有的技術只能對數據進行優化,不能根本解決不良數據問題。其次成立法律倫理審查委員會,其工作職責就是對人工智能與法律倫理問題進行審查,但審查存在一定的困難,人工智能在發展階段,其技術在應用過程中不斷完善,在發展過程中存在法律倫理問題也是一種正?,F象,法律倫理委員會主要是審查出現法律倫理問題是否人為因素,還是技術因素。
智能機器人沒有刑事判斷能力,因此刑法中不能給智能機器人定罪等法律條款,但人工智能技術的不斷完善,利用人工智能犯罪的現象會常用發生,法律專家建議增設“濫用人工智能罪”主要是基于社會對人工智能的前瞻性立法考量,防止他人惡意利用人工智能從事刑法規制罪名之外的行為,做到對人工智能風險的防控作用。增設“人工智能事故罪”的目的在于警示他人在利用人工智能從事相關活動時遵循相應的規則,防止出現因使用人工智能不當而造成的重大刑事犯罪。刑法增設利用機器人進行犯罪活動的人的法律責任,總的來說,智能機器人是受到人的指令進行控制,機器人本身出現傷人事件絕對是個別案例,總的來說智能機器人還是為人們服務的。