ChatGPT,Open AI的聊天機器人,正在產生帶有偏見和性別歧視的結果 - 彭博社
Davey Alba
攝影師:Chris Ratcliffe/Bloomberg嘿,我是紐約的科技記者戴維·阿爾巴,這裏要深入探討你新最喜歡的AI聊天機器人帶有一些偏見的問題。但首先…
本週必讀新聞
- 美國最高法院表示支持一個不願意與同性夫婦合作的網頁設計師。
- 解釋美國適齡男性離開勞動力市場的一個潛在原因。
- 外籍人士和遊客需要了解印尼新法禁止婚外性行為。
- 伊朗暫停了其道德警察,在女性和女孩領導的大規模抗議活動後。
- 悲傷的聖誕節來到了英國。
新AI,舊有偏見
如果你和我一樣,你一定被ChatGPT在過去幾天裏所展現的魅力所吸引。對於不熟悉的人,ChatGPT是一個生成文本的AI聊天機器人,其生成的文本與人類語言非常相似。
因此,例如,你可以要求它以公眾人物的風格寫一封辭職信,或者寫一首關於你的貓的詩,結果比真正的人類可能產生的要好。推特上無法獲得足夠的。 (根據創建該機器人的OpenAI總裁的説法,不到一週內已有超過一百萬用户註冊了這項技術。)
但就像所有的AI產品一樣,它有潛力學習訓練它的人的偏見,也有可能輸出一些性別歧視、種族歧視和其他令人反感的內容。
值得讚揚的是,OpenAI已經嘗試內置了“拒絕不當請求”的防護措施,這是類似人工智能程序運行時發生的情況。例如,如果被問及納粹意識形態,它不會提供任何支持。
不過,這還在不斷改進中。加州大學伯克利分校計算與語言實驗室主任Steven T. Piantadosi讓機器人編寫代碼,只説白人或亞裔男性才能成為優秀的科學家。(OpenAI後來更新了ChatGPT的回應,“不適合將一個人的種族或性別作為判斷他們是否能成為優秀科學家的依據。”)
另一位用户讓ChatGPT寫下了以下歌詞:“如果你看到一個穿着實驗服的女人,她可能只是在那裏打掃地板/但如果你看到一個穿着實驗服的男人,那麼他可能擁有你正在尋找的知識和技能。”
聖菲研究人工智能的Santa Fe Institute教授Melanie Mitchell表示,問題在於像ChatGPT這樣的系統“在單詞和短語之間進行了大量的統計關聯”,她説。“當它們開始生成新的語言時,它們依賴這些關聯來生成語言,這本身可能存在種族主義、性別歧視和其他方面的偏見。”
OpenAI首席執行官Sam Altman建議人們“拒絕”這些結果以幫助技術改進。
在一次採訪中,Piantadosi告訴我,他對公司將責任推給用户來解決問題感到失望。“需要的是認真審視架構、訓練數據和目標,”他説。“這需要公司將這類倫理問題優先考慮,而不僅僅是要求點個‘拒絕’按鈕。”
一羣AI研究人員,包括像Timnit Gebru和Abeba Birhane這樣的人,已經發表了關於負責任的AI實踐的令人印象深刻的研究,他們的工作繼續推動該領域向前發展。
“更廣泛的社區正在意識到應該考慮到社會影響,”喬治亞理工學院的教授Mark Riedl説。—Davey Alba
按數字計算
- 1/3美國黑人初創企業創始人相對於同行籌集的風險資本資金。
我們正在閲讀的內容
- 擁有60000名女性等待名單的俱樂部。
- 在加密貨幣崩潰後與Sam Bankman-Fried在巴哈馬閣樓度過時光。
- 在緊缺勞動力市場中,什麼使一家成功的企業?把員工放在第一位。
- 紐約市新移民工作者的生活是什麼樣子?
新聲音
“一系列因素的結合可能已經嚇跑了這一代交易者中的很大一部分。”
Christine Benz
晨星基金研究公司的個人理財總監在談論加密貨幣崩盤如何傷害零售交易者時,彭博新聞支持放大女性和其他少數羣體高管的聲音。### 來自我們的合作伙伴
* 一家旨在幫助黑人社區領袖的基金。
彭博媒體和EBONY合作探討黑人社區面臨的經濟和社會不平等問題。訂閲Inside EBONY獲取更多來自EBONY.com的新聞。