2023年2月,歐洲議會 AI倫理領(lǐng)域的顧問Anna Fell?nder在歐盟委員會官網(wǎng)發(fā)表了《ChatGPT’s rapid entry – Urgent for the government to appoint an authority for responsible AI》,提出了關(guān)于為什么要對生成式AI進行監(jiān)管的背景、原因和解釋。筆者認為,這篇文章很有可能代表了未來歐盟委員會對生成式人工智能的監(jiān)管方向之一,我們看這篇,也主要是作為一個國際動向進行關(guān)注。

免責(zé)聲明:本文內(nèi)容僅用于信息展示和分享和教育意義。轉(zhuǎn)載請按照相關(guān)規(guī)則,注明來源,且附上本文的所有參考文獻鏈接。

背景

備注:本文作者Anna Fell?nder,目前是anch.AI的創(chuàng)始人,也是ETHICAL AI GOVERNANCE GROUP的委員會成員,同時也是歐洲議會 AI倫理領(lǐng)域的顧問。

全文如下:

最近新發(fā)布的人工智能方案ChatGPT,以一種全新的方式挑戰(zhàn)著所有人。隨著生成式AI系統(tǒng)創(chuàng)造的機會,我們同時也面臨著具有歷史意義的十字路口:

也就是,究竟是人工智能來控制人類,還是人類來控制人工智能。

瑞典的企業(yè)和當(dāng)局(因為Anna Fell?nder在瑞典),需要對人工智能采取 Ethical approach ,也就是倫理學(xué)上的考量,但最重要的是,需要建立風(fēng)險評估框架,來支撐這種發(fā)展,從而指導(dǎo)符合人類價值觀的人工智能解決方案的發(fā)展。

此外,歐盟人工智能立法,對發(fā)展負責(zé)任的人工智能來說,指日可待,而政府迫切需要組建發(fā)展負責(zé)任的人工智能機構(gòu)。

ChatGPT和其他生成式人工智能系統(tǒng)

(1)首先,創(chuàng)造了人們內(nèi)心期待已久的人工智能民主化,更多的人可以參與進來這次技術(shù)帶來的迭代,自己去創(chuàng)造由算法在歷史數(shù)據(jù)上生成的新內(nèi)容。各個組織實現(xiàn)AI技術(shù)價值的門檻顯著降低,新的創(chuàng)新商業(yè)模式也層出不窮,能夠有效地加強客戶和人們的關(guān)系。

(2)同時,所有個體和社會,每天都面臨著由于不受監(jiān)管的人工智能解決方案,從而導(dǎo)致的道德和法律問題。其中一個原因是,人工智能模型的學(xué)習(xí)是基于歷史數(shù)據(jù),而其中,很可能存在不必要的偏見,這種偏見,可能導(dǎo)致社會排斥和歧視,包括其他的違規(guī)行為。

比如說,當(dāng)我們這些個體,批準自己數(shù)據(jù)在某種情況下被使用時,可能并不會意識到,當(dāng)我們自己的數(shù)據(jù)與其他數(shù)據(jù)結(jié)合時,算法如何創(chuàng)造出侵犯個人隱私的見解。

注意:這對公司和各國政府來說,代價都很高,例如可能會撤回投資,或者導(dǎo)致聲譽受到損失。最近的案例表明,2021年,由于人工智能解決方案錯誤地指責(zé)接受父母保險的父母是欺詐。此外,還有個基于OpenAI的GPT-3的醫(yī)療聊天機器人被發(fā)出測試,其結(jié)果是建議病人自殺。

參考資料:GPT-3 medical chatbot tells suicidal test patient to kill themselves | Boing Boing

生成式人工智能系統(tǒng),比其他人工智能解決方案具備更高程度的道德風(fēng)險暴露。其中一個原因是,生成式人工智能系統(tǒng)的使用往往是通過API進行的,這使得解決方案的透明度很低,并且,對它的發(fā)展難以控制。

同時,道德和法律方面的違規(guī)行為,通常發(fā)生得很微妙,也很突然,雖然這些違規(guī)行為可能會小到無法察覺,但是極有可能造成指數(shù)級的損失。

其中一個例子是深度造假,比如說,被用來操縱視頻或照片中的面孔和聲音。而要注意到的是,生成式人工智能模型通常以API的形式提供,這就可以使用戶更容易獲得和使用該技術(shù),這可能會增加濫用的風(fēng)險。

需要承認的是,基于API的生成性人工智能模型本身并沒有風(fēng)險,但它們的使用方式和訓(xùn)練的數(shù)據(jù)會使他們具備風(fēng)險。

歐盟的人工智能立法,即《人工智能法案》,將于2024年正式生效。

《人工智能法案》的目標(biāo),是讓公民和消費者感到信任,并維護歐盟包括人權(quán)在內(nèi)的價值基礎(chǔ)。歐盟委員會在《人工智能法》中提議,成員國必須任命或建立至少一個監(jiān)督機構(gòu),負責(zé)確保 "必要的程序得到遵循"。

隨著生成式人工智能系統(tǒng)逐步出現(xiàn)的巨大潛力,尤其是在醫(yī)療保健方面,例如正確診斷和優(yōu)化疾病的治療,關(guān)鍵是,要有可用的風(fēng)險評估框架,并任命一個負責(zé)任的機構(gòu)。

人工智能的倫理框架,為所有部門創(chuàng)造了一個高度的創(chuàng)新環(huán)境。因此,有關(guān)機構(gòu)迫切需要任命這一負責(zé)機構(gòu),并提供風(fēng)險評估框架,以便瑞典企業(yè)和瑞典當(dāng)局不會像GDPR那樣對人工智能法案缺乏警惕性。

【參考文獻】

1.https://futurium.ec.europa.eu/en/european-ai-alliance/blog/chatgpts-rapid-entry-urgent-government-appoint-authority-responsible-ai

2.Artificial intelligence: huge potential if ethical risks are addressed | News | European Parliament (europa.eu)

3,Welcome to anch.AI - AI and Equality in Public Administration- a report by anch.AI and the Swedish Gender Equality Authority.

歡迎研究法律/監(jiān)管的朋友提出自己的意見和觀點:)

聲明:本文來自阿法兔研究筆記,版權(quán)歸作者所有。