一秒識別渣女,拒絕戴綠帽!這個造福男性的App,卻被活活罵死了_風聞
金错刀-金错刀官方合作-科技商业观察家,爆品战略理论提出者2019-06-10 15:49
文/金錯刀頻道 祥燎
江湖上一直有這樣的傳説——
一些性工作者或渣女、渣男,在風流多年,玩膩了之後,便會偽裝成普通人,最後找個老實人嫁(娶)了。
這裏的老實人,也被稱作“接盤俠”。
據説程序員就是他們最心儀的“接盤俠”。在人們印象中,穿着格子襯衫的程序員,成天只知敲代碼,兩耳不聞窗外事,心思單純,不容易發覺別人的偽裝。
關鍵,程序員掙得還多。
程序員們自然不會坐以待斃。有道是,老實人被逼急了,什麼事都幹得出來。
有一個程序員,便開發了一套AI系統,只要在APP中上傳一張女生的照片,程序就可以自動將這個女生的樣貌與成人網站中女生的照片進行比對,辨別出她是否曾是性工作者。
儘管APP還未推出,網友已經迫不及待地取好了名字:原諒寶(愛她就要原諒她的過去),也叫**“老實人保護計劃”**。
原諒寶得到了不少人的聲援,男性居多,畢竟“蘇享茂事件”還歷歷在目。
但該項目,夭折了,被人活活罵死的。在刀哥看來,挺活該。
1
老實人的反擊:AI辨渣女
準備做原諒寶的人,是一個身在德國的程序員。
早在去年8月,他就透露出他的計劃,理由正如大家所想的那樣:
“鑑於很多人都在説程序員是各種退休小姐姐的接盤俠,自己作為一位資深程序員,實在看不下去這種言論,所以要做點事情,為各位同行的碼農朋友找對象做一個初步過濾。”
今年5月27號,他的一則微博,成功引起了廣泛關注。
“經過半年不懈的努力,100多TB數據,利用1024、91、sex8、PornHub、xvideos 等網站採集的數據對比Facebook、instagram、TikTok 、抖音、微博等社交媒體。我們在全球範圍內成功識別了10多萬從事不可描述行業的小姐姐。”
據稱,他將色情網站上的公開視頻和圖片打標籤後做匹配,以實現所謂“以圖搜片”,查詢者可以通過上傳女性照片、視頻和數據庫做匹配,判斷該女性是否疑似從事過色情行業。
他還宣稱,該APP對視頻的識別率,達到 99%;而對於聲音語氣模仿採用聲紋檢測對抗,識別率達到 100%。
消息一出,網上吵得不可開交。
支持者大都是男性,他們認為這是老實人的福音,渣女應得的懲罰,甚至認為反對原諒寶的女性,肯定是“心虛”。
但更多人是憤怒,並反諷道:“冰清玉潔程序員”,“評判異性的唯一標準就是生殖器。大約連草履蟲都活得比他們有滋味吧。”
眼見事情鬧大,那位不知名的程序員,刪除了整個項目和數據庫。
但網上的批評沒有隨之停止。大概是被罵得太慘,他後來換了個説法。他表示不經過本人,根本無法查詢。因為該系統需要通過eID(公民網絡電子身份標識)實名認證後註冊登錄,不經過本人同意是無法查詢的;增加人臉識別作為二次確認後,只能查詢自己是否有視頻或圖片被上傳到色情網站。
這麼一解釋,原諒寶跟“老實人保護計劃”可也沒什麼關係了,更像是為了擔心被偷拍的女性而做的App。
但也有人指出,eID在中國並不普及,使用率很低。為了這極少數的人羣,他卻肯費如此大精力,是何等的胸襟。
還有人質問,為什麼不做個男版的?他表示,他沒有針對採集男性社交媒體數據來進行大規模訓練,而且現在工作很忙。
網友便對他的話做了解讀:他對採集女性的數據則做過大規模訓練,而且做女版的時候就不忙。不過不做男版也情有可原,畢竟露臉的不多…
總之,解釋越多,被罵得越狠。
原諒寶無疾而終了,但這件事引發的討論,才剛剛開始。
2
被罵死的兩點原因
觸犯眾怒的原諒寶死了,死得一點不冤。
那名程序員的出發點也許是好的,但涉及到人們極隱私的生活,事情就不可能像他想得那樣簡單。
各種質疑,會理所當然地向他撲來。
首先就是合法性的問題。
在對原諒寶的譴責中,“侵犯隱私權”是最常見的一種。他的回覆是:整合公開資源並不犯法。
但此前,他也表示這是一個商業化的軟件。那麼在商業化的情況下,就極可能存在侵犯隱私權的風險。
另外,原諒寶在社交網絡上獲取用户數據,根據我國的《網絡安全法》,未經本人同意在社交網絡收集個人信息,本身就是一種非法行為。如果有中國用户使用這個系統,開發者就會面臨違反《網絡安全法》的風險。
簡而言之,原諒寶並不合法。
其次是合理性的問題。
相比合不合法,很多人的關注點更多在於原諒寶的合理性上。比起談法律,談道德、談實際情況更符合大眾的調性。
原諒寶的設計初衷是辨別渣女和性工作者。但它怎麼才能辨別是性交易還是伴侶之間的視頻呢?
該程序員的回答是,無法甄別…
所以如果原諒寶真推廣開來,最常見的情況只會是這樣:所有能被搜索出來的女性,都會被人認為是性工作者或渣女。
但誰都知道,現實生活沒有非黑即白。不是你拍了視頻就是渣,而從沒拍過的人就冰清玉潔。
人工智能再智能,也沒法僅靠一段視頻,就還原當時的來龍去脈。哪怕是完整的視頻,但拍攝的原因,上傳的原因,外人可能永遠也無從得知。
或許有的人的確玩得很嗨,但嗨到很拍視頻並上傳的,只能是少數。至於性工作者,更不會輕易接受拍視頻。
而一般人出現在成人視頻網站上,無外乎幾種情況。
第一,以為只是情侶間的情趣活動,但沒想到伴侶卻上傳到了網站。
第二,被偷拍。別説在酒店,就算行走在大街上,甚至是廁所裏(一直搞不懂有啥可看的…),針孔攝像頭都無處不在,防不勝防。
在偷拍產業鏈發達的韓國,女性人人自危,以至於韓國的手機,哪怕你調成靜音,也沒法關閉拍照的快門聲。中國的偷拍,也漸漸有向韓國看齊的趨勢。
第三,被威脅。此前的“裸貸”“裸條”,就可以歸為此類。
第三,被犯罪。最近國外網友在Twitter上發起了#Chinawakeup#的話題,事情的起因是她在網上看到很多女性被下藥,被不法分子侵害的視頻。這種被下迷姦藥,女性在毫不知情的情況下被偷拍、強姦的視頻,在成人視頻網站上並不少見,甚至還可能成為賣點。
因此,很多女性是以受害者的身份出現在這些視頻裏的。視頻的再次傳播對她們而言,無疑是二次傷害。
原諒寶明明什麼情況都搞不明白,卻要掌握生殺大權,毀人一生。
但反過來,很少有男性是被迫的。真要説起來,女性成為“接盤俠”的可能性要大得多。
3
AI辨渣女,可信嗎?
拋開法律的束縛,道德的譴責,原諒寶在技術上是否可行呢?
很值得懷疑。
那名程序員聲稱原諒寶對視頻和聲紋的識別率,分別高達99%和100%。這個數據怎麼來的?他沒説。他如何測試,測試了多少樣本,全是未知數。
僅有一個結論,很難讓人信服。
這只是一種自然而然的判斷,而真從技術上來説,原諒寶應該也不具備能識別渣女的能力。
原諒寶在查詢系統中使用的能從視頻中識別人物的技術叫智能視覺,是現在在人工智能領域比較常見的一種技術。
智能視覺技術,就是用算法在後台不斷訓練系統,早期要靠人工不斷地給系統識別的圖片打上各類標籤。最終,等技術足夠成熟,不需要人工干預,系統就可以自動地得出標籤。我們熟知的天眼系統,就使用了部分智能視覺技術。
這就涉及到了一個問題——它需要一個準確的數據庫。原始樣本如果不準確不夠多,也就無從利用答案訓練系統。
也就是説,該程序員自己得知道正確答案,他才可能訓練系統。這就要求他必須能把視頻網站的人,和社交網站的人對上號。
但是,像Facebook、微博這樣大型社交網站,反爬蟲技術相當成熟,一般人要獲取用户數據,難度極大。
事實也的確如此。據他所説,原諒寶在全球篩選出了不到11萬女性,其中擁有微博或抖音賬號的,只有不到1000人。這正説明其採集國內社交媒體數據能力相當之差,因此識別的準確率也必然高不到哪去。
相比社交網站的用户數據,獲取成人視頻網站的數據就沒那麼難了,但還是那個問題:數據準確嗎?
據業內人士稱,“視覺智能需要很多的前提,比如拍攝的清晰度,以及作為模板的人像有特定要求。”
除了正兒八經拍片謀生的人,一般的成人視頻裏,要麼臉部有遮擋,要麼畫面晃動,畫面不清晰,光線昏暗等等,根本無從識別。
哪怕畫面清晰,臉部沒遮擋,鏡頭穩定,你獲得的數據就是對的嗎?
面對亞洲四大邪術,就算是人眼,也有看走眼的時候。
還有近幾年興起的AI換臉,讓多少人誤以為女明星下海了?

將蓋爾·加朵的臉換到豔星上
還有的人得不到女神,就收集女神照片,利用該技術做一部女神黃片。
甚至有的人利用AI換臉,對某些女性進行色情報復。她的家人、朋友,往往信以為真,畢竟“有視頻有真相”。
總之,在這一切的數據都不可信的前提下,原諒寶的AI辨渣女,彷彿天方夜譚。
話説回來,如果他在缺乏準確數據庫的情況下,還能做到高達99%的準確率,如此牛X的程序員,我們可以當國寶對待了。
至此,連他的出發點,也很值得懷疑了。
其實這樣的事,也見怪不怪了。總有這樣的人,會讓我們在生活中一次次感受一個淺顯又深刻的道理——
科技是把雙刃劍。
多麼痛的領悟。
參考資料:
半佛仙人:《原諒寶的數據真相與隱私埋葬》
大家:《那些怕“接盤”的程序員,是因為他們看誰都是性工作者》
航通社:《“原諒寶”:“科技向善”的反面》