Hey Siri,AI跟法律是怎麼搭上線的——人工智慧工作坊報導

0

9/25於台大,由台灣大學主辦,科技部協辦的「人工智慧法律相關議題」工作坊正式展開。共有七位專家學者從不同角度分享,人工智慧是什麼?人工智慧時代來臨了嗎?人工智慧有可能如何影響人類的生活?

第一場由台大國發所劉靜怡教授主持,作為此次工作坊的總論,他從人工智慧的歷史,與法學界對其的認識與因應談起。他提到,人工智慧的發展共有三個高峰,其中第三波也就是今日的高峰,是人工智慧結合大數據與深度學習後的產物。隨著AI在資料科學的發展,AI甚至可自行產出 domain knowledge (領域知識),且只要輸入 raw data (原始資料)就可達成目的。這樣的方式不禁讓人覺得,是否AI時代將要來臨。

AI時代或許早已到來
然而事實上,AI時代或許在學界早已到來,因為這樣高能而新穎的模式馬上就引發許多社會、倫理、法律相關省思。劉靜怡教授指出許多頂尖大學,諸如:哈佛、耶魯、多倫多大學都早已設立高額學金或成立研究室,或投入相關議題

接二連三的疑問
AI到底帶來了什麼,是各種產業的文藝復興,是專業領域的典範轉移,但到底是一種轉化還是取代?而AI的運作事實上極不透明,這樣反民主的機制會不會帶來新弱勢的誕生?AI的運作邏輯很大程度是無可察覺或知悉的,這樣的決策正與民主相違背,如果人類越來越仰賴AI那對於某些人類認為錯誤或不當的決策是否有退出機制?劉靜怡教授強調,當工程師在設計AI時,是否應該要擺入特定的倫理基礎,已避免民主的淪喪,而這樣的倫理基礎又該如何決定?又是否能夠且應該廣納社會不同的歧異觀點?如果這些價值發生衝突,AI該如何決策?這些道德觀放在AI之中,法律人又如何用法律去評價?

最實際的問題
AI的存在是由種種要素構成,然而這些要素在法律上的評價亟待討論與解決。諸如,AI如果真的有所謂智慧,就面臨到其在法律上關於人格、權利義務主體之身份定性。如果AI做了某項決策,要怎麼描述AI的意思表示、誰又要承擔AI決策的風險?而排除哲學層面,AI演算法的監督與管制也箭在弦上,對智慧財產權、資訊安全,AI的存在都有可能侵犯。而這樣資料經濟的市場轉變,或許也可能根本的改變法律的體系,與法意識。而在勞動法與勞動政策方面,機器人取代人力的勞動模式,帶來勞動市場的革新。尤其是專業勞動領域,AI是否具有各專業的倫理規範更是與民眾切身相關。

所以,機器人該如何受人類操配?人資與就業市場該如何調配?各專業都思考其業務領域對於AI的適應與調整。

對設計師,法律的期許與關注
回到設計端,AI目前碰到的倫理問題是,AI時常會受到設計者心中偏見影響,其決策因此而有偏誤。例如google的圖片自動標記功能,就曾將黑人誤判為大猩猩 。就挑動敏感的種族議題。而AI這樣的自動決策,該如何歸屬其責任?台北市目前正推展的無人公車就是最好例子。若是無人車因AI決策而撞傷人,應該如何分配其肇事責任?從硬體商到軟體開發商,若無決定責任分配,只怕屆時只會有互踢皮球的隱憂。

法律與AI本質上的抗衡
若AI進入法律本身,法律又該如何因應?例如國外現已有利用AI評測政府社福與處罰標準的實務運作,當人們要求政府對其行政處分作出解釋時,AI運作的論證缺陷便一覽無遺。因此,政府應該再運用AI的同時,堅守正當法律程序的遵守,才不會侵犯人民權利。

市場與AI
最後市場競爭規範面臨了資料科學而啟動的競爭新局。公平交易與反托拉斯法面臨新考驗,即是有能力發展AI的廠商坐擁資料優勢,得以快速分析用戶資料,甚至發展出客製化定價的遊戲規則,都可能導致市場的壟斷。
所以在AI時代中,資訊自主權的保障應該如何伸縮?個人有無主張個人資料應受國家保護之權利?以及個人是否得主張免於AI追蹤之權利?
歐盟在對此於2016年通過最新的個人資料保護規則 ( the EU General Data Protection Regulation,簡稱 GDPR ) ,特別強調數點措施,包含企業應設立資料保護長一職、資料之取用須取得明確有效同意、被遺忘權等,顯現政府在資料保護的地位可說是責無旁貸。

總結上述
最後劉靜怡教授總結,民主社會該如何避免成為演算法社會、黑箱社會?如何界定資訊受託者的責任,都有賴法律課予演算法使用者公共責任,讓AI受到法律系統的評價,最終才能在盡量避免外部性的情況下,迎來更好的AI時代。

這篇文對你有幫助嗎?歡迎分享轉發!

About Author

年輕的頭殼下藏了好多鬼靈精怪的想法, 多元思考、無拘無束,走在愛因斯坦無知的邊界上, 和每個你你還有你提供未曾知道的新資訊。 法律、媒體、性別,遊走於每個專業之中, 我是Bruce,我是大家最無負擔的好朋友。

Comments are closed.