「防騙手機」能飛能折還能防詐騙?學物理的坐不住了……_風聞
中科院物理所-中科院物理所官方账号-2019-04-01 19:16
原創:中科院物理所

要出新手機了???
今天一早,就在小編偷偷摸魚刷微博的時候,驚聞支付寶推出了一款新手機。聽到這個消息,我的內心是這樣的:
啥時候支付寶也開始做手機了???
我們先隨意感受一下**「休想騙我」**的宣傳視頻
機身與屏幕是一個整體,真正的全面屏
攝像頭與屏幕融為了一體,隱藏式攝像頭
嗅覺傳感器
飛行模式?真正的飛行模式?
……
這,信息量也太大了吧!!!
Orz 我只想説,我不是針對誰,但在坐的各位都是……

來自電影《破壞之王》的經典對白
我正打算和別人大吹特吹,不過轉念一想,不對啊!今天是愚人節啊!
Excuse me?支付寶在愚人節的時候發佈了一款「防詐騙手機」?你這是在逗我嗎!
作為一個**「死理性派」**,我決定一探究竟,嚴肅分析一下這些看上去很「扯」的技術,是不是真的可行。
全 面 屏
有的手機就只能趴窗偷看……
支付寶這款手機可謂是真正的落地大窗户(大屏幕)了。沒有多餘的邊框,你手指所能觸及到的地方,都是屏幕。手有多大,你的屏幕就有多大!
我們都知道,要想看到一個東西,只要那個能夠發出光,或者反射光到人的眼睛裏就好了。像現在手機屏幕裏面,就是一個個的小像素點構成最基本的發光單位。
全面屏其實基本上就等於越來越多的發光單位。不過你説假如 N 年過去以後,世界上的手機都這個樣子,喬布斯喬老爺子的棺材板説不定都按不住了……

和人一樣大的手機見過沒有
以前的那些不管什麼屏都是二維的東西。一部「黑科技」的手機,它的屏幕怎麼可以僅僅停留在平面上。三維的屏幕,我們就要有三維的像素點。
想必大家一定看過流星,利用流星出現的原理,我們完全可以構建一個三維的屏幕。如果三維的像素點在空中劃出一道又一道特定的軌跡,就可以組成任意想要的畫面了。未來的手機,一定是裝備了流星式像素點,通過激光控制光點移動和顏色,真實還原 3D 影像,用手機就能看真 3D 電影和視頻,心動不心動。

指尖蝴蝶技術,圖片來自 Nature 論文 [2]
而那時候如果想要與屏幕進行交互,可以通過動作捕捉技術,實時定位人的手指在空間中的精確座標,實現定位和準確操控。
隱藏式攝像頭
攝像頭可以算得上大家生活裏的剛需,拍天拍地拍空氣。新款手機的攝像功能也是越來越強大。最近某友商還推出了買單反附贈通話功能的活動……
可是,如果是全面屏,攝像頭該放到哪裏呢?
真相只有一個,攝像頭融入了屏幕!
正所謂**「小隱隱於野,中隱隱於市,大隱隱於朝」**,要想做到真正的隱藏式攝像頭,單純地實現讓大家看不到這個攝像頭在哪裏可能還不太夠。**最絕的隱藏式攝像頭,其實還是要把整個攝像頭的結構隱藏在其它的元器件裏。**就比如,手機屏幕。
光是具有粒子性的,在光照射到的材料表面以後,在滿足一定條件的情況下可以把材料裏面的電子打出來。被揍出來的電子有兩個去處,一,遠走高飛浪跡天涯,也就是大家常説的光電效應。
仔細想想,光電效應感覺還是一部情感大戲啊
雖然現在大家提起愛因斯坦記住的都是他提出的質能轉換關係和相對論,但他本人正兒八經拿到諾貝爾物理學獎還是靠的對光電效應的理論解釋。
第二個去處,則是隱姓埋名悄悄溜走,變成了材料內部的光電流偷偷跑掉。我們想象在表面上其實並排放着收集這些電子的水桶,只要記錄下來到底有多少電子,就能知道有多少光照射在材料上,當然也就能夠實現攝像功能了。這一類材料被統稱為光電二極管,只要能夠把光電二極管也集成到我們屏幕上,以後手機正面就再也不用給攝像頭留位置啦。
FAST 天眼主動反射面系統
作為一個先進的攝像頭,怎麼可以沒有變焦功能?要想做到變焦功能,那這時候只能請出神奇的 500 米口徑球面射電望遠鏡(FAST)這顆天眼了。在天眼上,為了能夠更有效地跟蹤對焦天上星星發出的信號,採用了主動反射面系統。整個系統採用了上萬根鋼索組成索網,反射面索網安裝在格構式環形圈樑上,它有 2400 個連接節點,在索網上一共安裝 4600 個反射面單元,這些節點下方又連接下拉索和促動器裝置,促動器再與地錨連接,從而實現對焦。[3]
黑科技手機上當然也要配備這麼厲害的主動反射面系統,廣告語就可以這麼寫:怎麼照都清晰,完整呈現你的美。
真正的飛行模式
還記得小的時候,在家偷偷玩老爸的手機。看到有飛行模式這個選項,興奮地打開這個功能,然後把手機從三樓扔了出去……我永遠也不會忘記那一天!
還以為過去的幻想都成了現實……
不會飛的手機你叫什麼「飛行模式」!!!
然而,支付寶這款手機做到了真正的飛行模式……
沒錯,會飛……
天吶!!!
支付寶是養了一支頂尖科學家團隊嗎?!!!
我感覺我受到了暴擊!
這麼多年的物理我都白做了啊……
嚇得我趕緊查閲了近幾個月的頂級學術期刊,翻遍了Nature、Science、PRL,想要看看這到底是什麼黑科技!

自然的風還是人造的風還是七彩的風都不重要……
一般來説,在地球大氣層裏面飛的玩意大部分還都是靠着風,而在衝出大氣層以後,運動就只能依靠動量守恆定律了——不斷地向後高速地噴射氣體,換取向前的推力。如果是用風的話,風吹過機翼產生壓強差,從而託着飛機在高空中平穩飛行。鳥兒飛翔也需要翅膀來扇動空氣。一個擁有真正「飛行模式」的手機,也一定要擁有一對高科技的「翅膀」。
這樣的技術其實早就在我們的現實生活中有了雛形,這就是離子發動機。離子發動機使用離子產生風,沒有任何的運動部件。在實際使用的過程中,先在飛行裝置內裝上高壓,從而實現電離空氣中的分子。隨着帶電粒子被電場加速移動,這些粒子在運動的過程中同樣也會帶動周邊的分子,從而形成一股強勁的風。
離子發動機原理示意圖。圖片作者為 Steven Barrett,MIT,中文來自費米科學的《10分鐘讀懂“離子飛機”》[4]
要説離子發動機最大的優點,那就是沒有噪音!你的手機在移動的過程中絲毫不會影響到你,就像「最好的服務就是讓你感受不到有服務」一樣。如果真的有這種在你需要的時候就移動到什麼的手機,那真的是太幸福了。
我覺得支付寶養的不是頂尖科學家團隊,而是養了一羣外星人……
超柔性可摺疊機身
現在的手機發展有一個趨勢,那就是越來越大,越來越彎!

具有極強的可塑性
聽説你會 90 度的摺疊?這算什麼,180 度的摺疊現在都不算稀奇!以後的手機摺疊性能都是 720 度,1080 度起步的好嗎!
柔性機身,轉不成莫比烏斯帶也好意思説自己是柔性?

真正的柔性手機,我已經無法從物理的角度來形容機身的延拓性了,拓撲材料裏的拓撲都沒這麼拓撲……未來手機所具有的超強延展性和流動性……怕不是要用貓做的吧……
你們人類怎麼又要我出場???
一個合格的「可摺疊」手機,一定要做到靜若處子,動如脱兔。
在它顯示的時候,要能夠站得住;在平時為了方便摺疊收納,要做到 180 度,哦不,360 度,還是 720 度?1080 度的摺疊。不用在意這些轉動的數字到底有什麼意義,只能能夠想怎麼折就怎麼折,那它就是一部好手機。
能夠實現狀態轉換的材料,被稱作相變材料。那什麼是相變呢?冰變成了水,就是相變。水被燒開沸騰了,變成了水蒸氣,也是相變。手機在使用狀態下是固態相,而在摺疊過程中是液態相,要想靈活地在「處子」和「脱兔」中間切換,那肯定要使用可控相變材料了。
能夠靈活地根據不同場景切換狀態
不要覺得上面這種材料不可能真的在真實世界中找到啊,實現這麼高流動性的材料無疑就是——貓。**眾所周知,貓是一種流體。**利用仿生學模仿貓的身體結構,就可以在手機裏真實地還原相變和流動性的特點。
萬物皆流,無流常住。關於貓的流動性,其實有很多非常正經的研究。法國里昂大學的研究人員 Marc-Antoine Fardin [5] 就通過流變學的公式,底波拉數(De),來描述材料在特定條件下的流動性。如果一個材料形狀的變化時間(也被稱為弛豫時間)比起觀測的時間要短得多的話,這個材料就是液態的。把一杯水倒入杯子裏,水會瞬間變成杯子的形狀。底波拉數的定義其實就是形狀的變化時間和觀測時間的比值,這個比值越小,就説明這個物體的流動性越好。利用這個概念,研究人員還證明了貓的荷葉效應,在不同表面的浸潤情況和粘滯行為。
圖片來源:Marc-Antoine Fardin 的論文 On the rheology of cats [5]
在未來,什麼摺疊不折疊都不重要了,底波拉數將會成為衡量手機流動性的唯一標準。敲黑板劃重點了啊,一部手機如果不敢公佈自己的底波拉數,那就是耍流氓!
分 子 嗅 探
還記得之前提過的那兩個洞嗎?除了有麥克風、發動機的功能外,這個洞還集成了大量的微型化學分析儀!分子嗅探技術!
作為一部合格的黑科技手機,不僅要有視覺、聽覺,還應該實現嗅覺,實現常見有毒化合物的智能嗅探,比如嗅探出地溝油、過期食品、劣質化妝品等等。
古代有銀針試毒,可以想象,在不久的將來,人們吃飯前都將習慣性地把支付寶手機扔進火鍋裏涮涮,看看鍋底是不是地溝油……

涮火鍋,以後再也不擔心吃到過期食品
在現代的手機裏面其實已經有了很多的傳感器,比如可以用於檢測步數的加速度傳感器,可以用來判斷南北方向的磁場傳感器,用來檢測手機方向確定是否橫屏顯示的重力傳感器,用來確定手機在空間中具體朝向的三軸陀螺儀……等等,説了這麼多,怎麼感覺把嗅覺給漏掉了?
其實用嗅覺檢測這個名字也不是很合理,更合理的叫法應該為特定化合物功能檢測。想要判定一個東西嚐起來甜不甜,一條很簡單的判斷原則是數一下這個化合物中羥基的數量。東西吃起來鮮不鮮,就是氨基酸在裏面起作用。
現在科學家們檢測化學分子結構的手段非常豐富了,但要説最好用的,使用最久的,當屬光譜分析儀。不同化學結構和原子會在光譜中擁有不同的特徵,識別這些特徵,就可以分析到底是哪一類,甚至是具體的化合物。當然,光譜用的光也可以有很多種,紅外光,可見光,X光等。
檢測空氣裏的雜質,那就是隨身便攜的環境監測站,走到哪測到哪。檢測氫離子濃度,就可以分析溶液裏的酸鹼性,看買到的醋合格不合格。檢測食物裏面的重金屬離子和營養成分,吃火鍋前先涮涮手機,一查便知底料健不健康~還能檢測激素水平,監控身體健康狀況。
寫申請ing
感覺這是一個很了不得的點子啊,我要趕緊去申請專利了。
從宣傳視頻來看,支付寶這款手機除了硬件 🐮🍺 非常之,算法也是diao 炸天。
**「三防」是它主打的功能。所以到底是哪「三防」**呢?
防 盜 防 偽 防 詐!
理想很豐滿,現實到底骨感不骨感?真的可以在現實中實現這些防盜秘籍嗎?
防 盜
手機不小心弄丟或者被偷,是大家最頭疼的事情。尤其是現在,手機綁定了QQ、微信、支付寶,還有無數的銀行卡。一旦手機丟了,基本上你就裸奔了。
支付寶推出的手機聲稱可以一勞永逸地解決這個問題。具體怎麼解決呢?

圖片來自 Giphy @anthonyantonellis
還記得之前説過的這款手機有真正的飛行模式嗎?
既然都能飛了,還要啥自行車!
丟失手機後一鍵鎖定、一鍵定位都弱爆了!
一鍵召回聽説過嗎!!!

如果手機丟在了家裏的某個角落,只需要大吼一聲「飛來」!手機就能識別出你的聲音,然後啓動飛行模式,根據你的聲音定位,飛到你的身旁!
這像不像人們與寵物狗玩耍,把飛盤扔出去,然後讓狗狗跑過去撿回來。

當然最好彆強狗所難
可以想象,在不遠的將來,會有一種非常流行的娛樂方式。在大草坪上,把手機扔出去,然後大吼一聲「飛來」,讓手機再自己飛回來!
如果手機被偷了,只需要在電腦上啓動**「一鍵召回」**功能,手機就能定位你的位置,然後飛回來!
有了這個功能,以後手機還怕啥丟不丟的。
防 偽
還記得每年春節大家都在玩的「掃福」遊戲嗎?通過 AR 技術掃描物體,可以識別出**「福」**字。淘寶「掃一掃」中的「拍立淘」也是同樣的原理,手機拍攝照片後,就能識別出這是什麼物品,然後返回相關的商品鏈接。
掃一掃就可識別商品
支付寶推出的這款手機中也應用了相同的功能,只不過更加強大,可以**「識別萬物」**!只要掃描任何物品,就能識別出這是什麼東西。而且這個牛吹的還有點大發了,這款「識別萬物」還能鑑別真假!
要實現這個功能,就需要有人工智能的加持!具體來説就是深度卷積神經網絡(CNN)~
常用的卷積神經網絡模型 VGG,曾獲得 2014 年 ILSVRC 競賽的第二名
將輸入圖片輸入網絡後,經過一系列的卷積、激活、池化操作後,可以得到一系列的特徵。之後將這些特徵輸入到全連接層(Fully connected layer)進行分類,最後通過損失函數反向求導,實現參數更新。與傳統的 SVM 等機器學習算法不同,CNN 可以自己學習出分類所需要的特徵,直接用於最後的分類,而無需手工設計特徵,因此也被稱為端到端學習。
卷積操作示意圖
**如果要使用深度學習,必須要有大量的數據。**想必支付寶一定積累了大量的數據庫,尤其是收集了一堆假貨的圖片……
康帥博 vs 康師傅
以後再也不怕**「康帥傅」、「周住牌」、「粵利粵」、「大個核桃」**了!
近年來,深度學習飛速發展,神經網絡模型在計算機視覺、語音識別、機器翻譯等任務中取得了顯著的效果。大數據時代下,一些富有爭議的研究也層出不窮。2016 年,某高校發表論文《基於面部圖像的自動犯罪概率推斷》,通過人工智能預測犯罪率;2017 年和 2019 年,兩個使用機器學習預測性取向的研究也備受爭議。
人工智能看「面相」
相比上面的這些研究,**「防假AI」**算是靠譜得多了。從平台優勢上來説,支付寶可以累積大量的「假貨」數據,訓練出一個可以識別假貨的卷積神經網絡並不是什麼難事。
倘若真的可以實現,那麼防假 AI 就是真的火眼金睛了,以後再也不用擔心被山寨貨迷惑了~
防 詐
除了識別物品,他們聲稱這款手機還能識別詐騙電話。如果有不熟悉的電話打過來,手機便會自動開啓防衞,檢測對方説話的語調、語速、頻率、情緒等等,判斷是否是詐騙電話。
這就厲害了,這可不是簡單的來電標記了,而是真正的人工智能防詐騙!

這個功能的實現建立在語音識別技術的基礎上。提取出語音中的聲學特徵後,送入循環神經網絡(RNN)或者長短時記憶模型(LSTM)中,然後進行分類。
LSTM 單元結構
支付寶團隊一定閒着沒事就去和騙子打電話聊天,採集他們的語音信息,這才有了足夠的數據量用來訓練模型。
「歪,是騙子嗎?能説幾句話嗎?我採集一下數據……」
這個功能要是實現了,這無疑就是一款**「渣男剋星」**!
咳咳,有對象的人注意了,以後如果你對你的男朋友/女朋友説謊,支付寶就能識別出來!這個功能也太可怕了!還好我沒有對象!
生物特徵識別
還在用指紋識別、人臉識別、虹膜識別?這些在支付寶手機的生物特徵識別技術面前都太 low 了!
口氣識別、體味識別有沒有聽説過!
有個成語叫臭味相投,我猜你們一定不知道它真正的含義
每個人都有自己獨特的生物特徵,這些特徵可以認證某一個人是否是本人。目前,比較流行的生物特徵有指紋、掌紋、人臉、聲音等等。
圖片來自 eefocus
然而,以上這些識別方式都存在可攻擊的漏洞,比如指紋可以偽造,人臉可以合成,聲音也可以後期合成。
近年來,步態識別是一種新興的生物認證技術,它通過人的走路方式來識別人的身份。每個人走路的姿勢和習慣都不同,分析走路的姿勢就能夠用來識別身份。

步態識別是一種非接觸的生物特徵識別技術。它不需要人的行為配合,而且特別適合於遠距離的身份識別。步態識別難以仿造,因為走路的姿勢是長期形成的習慣,很難模仿。
**它不僅可以分析閉路電視捕捉到的嫌犯的行動情況,還能把它們同嫌犯走路的姿態進行比較。**在一些兇殺案中,往往兇犯不讓你看到他們的臉,但卻能看到兇手走路的樣子。把嫌疑犯的走路姿勢提取特徵後存入數據庫,以後只要有攝像頭捕捉到相同的姿勢,便可以鎖定嫌疑人了。
這是一種新興的生物特徵識別技術——步態識別:只看走路的姿態,50米內,眨兩下眼睛的時間,攝像頭就準確辨識出特定對象。圖片來自 iyiou
但是對於手機來説,步態識別不太可能。**你總不能每次想要解鎖手機的時候,都要對着手機來一場走秀吧。**那麼還有什麼辦法呢?
每個人都有自己獨特的氣味,比如口氣、體味、狐臭等……
能否利用這個進行識別呢?
當然沒問題!
還記得之前我們説過的**「分子嗅探」**技術嗎?通過手機上的分子嗅探孔,手機可以感受和捕捉到空氣中的分子,然後對其進行化學分析。這樣就可以從每個人獨有的氣味中提取出特徵,作為認證手段!
以後只需對着屏幕吹一口氣,或者拿手機在身上蹭蹭,就可以解鎖手機了!
圖片來自《你不能忽視的 5 種體味》
看完了支付寶的這一波騷操作,
我的內心真是毫無波動…
那是不可能的!
如果這些技術真的都能實現,那我們不就生活在科幻電影中了嗎~
人類總是喜歡做白日夢的,每年也樂此不疲地開着愚人節的玩笑。我們上可以抬頭望星星,做着流浪地球的夢;下可以低頭玩手機,暢想可及又或者不可及的未來。要問為什麼,法拉第的電磁感應被人質疑用途,愛因斯坦打破時空的界限的相對論看起來那麼不可思議,那些偉大的科學上的突破在最開始不也都是白日夢?
毫無疑問,今天的支付寶是給大家送了節日禮物,但是作為一名嚴謹的科學工作者,小編我還是挺認真地開了下腦洞~ 説不定未來某一天,我們就能在科學上弄出突破性進展,搞出了幾篇 Nature 和 Science ,把「白日夢」變成現實了呢!
關於未來的技術,你還有什麼腦洞嗎?
作者:Cloudiiink,可樂不加冰,劉翼豪,Neo*. All authors contributed equally to this work.
參考內容以及鏈接:
[1] 關於支付寶「防騙手機」內容來自微博等網絡平台
Sie E J, Nyby C M, Pemmaraju C D, et al. An ultrafast symmetry switch in a Weyl semimetal[J]. Nature, 2019, 565(7737): 61.
[3] 技術詳解“中國天眼”:世界上最大的單口徑射電望遠鏡 FAST
[4] Xu H, He Y, Strobel K L, et al. Flight of an aeroplane with solid-state propulsion[J]. Nature, 2018, 563(7732): 532.
[5] Fardin M A. On the rheology of cats[J]. Rheology Bulletin, 2014, 83(2): 16-17.
[6] Krizhevsky A, Sutskever I, Hinton G E. Imagenet classification with deep convolutional neural networks[C]//Advances in neural information processing systems. 2012: 1097-1105.
[7] Simonyan K, Zisserman A. Very deep convolutional networks for large-scale image recognition[J]. arXiv preprint arXiv:1409.1556, 2014.
[8] Graves A, Mohamed A, Hinton G. Speech recognition with deep recurrent neural networks[C]//2013 IEEE international conference on acoustics, speech and signal processing. IEEE, 2013: 6645-6649.
[9] Shotton J, Sharp T, Kipman A, et al. Real-time human pose recognition in parts from single depth images[J]. Communications of the ACM, 2013, 56(1): 116-124. [10] Han J, Bhanu B. Individual recognition using gait energy image[J]. IEEE transactions on pattern analysis and machine intelligence, 2006, 28(2): 316-322.