關於人工智能應用的思考_風聞
周格拉底-2018-06-20 15:01
將AI(人工智能)用於人類情感分析是目前研究前沿熱點,研究人員使用AI+大數據技術理解人的情感,再通過輸入選擇性信息,從而影響人的決策。在商業領域中,商家可以利用這種技術來判斷消費者的消費傾向,然後通過數字傳媒精準推送營銷信息來影響消費者購買決策;在政治領域,競選團隊可以憑此來判斷選民的政治傾向,進而通過各種傳媒工具來影響選民的投票決策。
這種技術其實是一把雙刃劍,一方面,如果讓機器能更好的理解人的情感,就能設計出更高智能的機器為人類服務,從而增進社會福利;另一方面,如果讓機器能洞悉人的情感,那麼也讓他人或者機器本身利用這種技術操縱人的情感成為可能,最終阻礙社會的進步。
此類技術應用能否用於真正造福人類完全取決於用於影響決策的信息輸入的真實有效性。
社交媒體的興起極大改變了人獲取信息的方式,其去中心化的傳播特點一方面使信息的傳播速度能以指數級增長,另一方面,因為缺少傳統主流媒體過濾不良信息的機制,也使得信息的真實有效界限日益模糊。
根據行為心理學的原理,大眾接受信息的意願程度往往不取決於其是否真實有效,而取決於受眾的心理狀態,如果大眾長期選擇性的接受信息會導致人的認識偏差,就有如長期偏食會影響生理健康一樣,這種認識偏差最終會固化成一種觀念和態度上的偏見。
在移動互聯網時代,這種選擇性接受信息到固化成觀念和態度偏見的過程會被AI技術應用進一步強化,最終導致在網絡羣體中,具有相似屬性、觀念或偏見的人相互聚集在一起,形成排他性極強的“虛擬原始部落”。
此類技術如果被別有用心的人利用會導致巨大的社會危害,其有害程度甚至遠遠高於邪教。
在國外選舉政治中,利益集團利用這種技術去操縱選舉已經成為公開的秘密。前段時間媒體曝光的Cambridge Analytica公司,就為很多國家的競選團隊提供這種操縱選民情感的技術支持。選舉團隊可以跟第三方公司購買用户信息,然後分析每一個家庭裏的基本政治傾向和獲取信息的媒介習慣,據此有選擇的輸入信息操縱其情感。例如:向具有反移民傾向的選民散播一些“移民有可能是小偷、有可能是強姦犯”的信息,觸發其恐懼情感,使之更反移民。這種的操弄在AI技術的加持下,可以在社交媒體上可以達到前所未有的高度,而且完全是量身訂做。這從某種程度來説完全是愚民操作,怎麼可能會選出符合大眾需要的領導人?
在國內商業領域,隨着廣大用户媒體習慣的改變,不少廠商將大量營銷預算用於網絡營銷推廣。廠商一方面與具有媒體壟斷勢力的信息平台合作,選擇性的向大眾推送不真實或帶偏見的營銷信息;另一方面大肆僱傭網絡水軍,在新媒體渠道上大發營銷軟文,建立虛假口碑,刻意散佈對競爭對手不利的信息,更有甚者還會惡意抹黑競爭對手,攻擊表達正確意見的KOL,花錢刪除不利於己的信息等等。此類種種作為的成本無疑最終會轉嫁給消費者承擔,既加重了消費者負擔,又幹擾了消費者的決策,還損害了市場的有效性。如果這種操作有AI技術加持,其負面效果無疑會成倍放大,而消費者最終還不自知。長期以往,無疑會導致劣幣驅逐良幣,完全背離優勝劣汰的市場競爭原則,阻礙社會進步!