我把無人車的避障技術裝進了iPad,刺激手部為盲人導航,雜貨間也能暢通無阻_風聞
大数据文摘-大数据文摘官方账号-2020-07-22 14:42
大數據文摘出品
作者:劉俊寰
根據世界衞生組織的數據,截止去年,全世界共有3900萬人失明,2.5億人視力受損。
對於這些人來説,出行是亟需解決的首要大事。目前市面上已經有多個針對盲人的出行工具,比如智能手杖等。
但是這些工具的適用場景更多是在室外,在狹窄的室內,要使用一根長長的手杖,就顯得有些侷促了,於是,這個名叫Shane Wighton的YouTube博主就利用iPad做了一款便於在室內行走的工具。
老規矩,先來看看效果如何:

可以看到,在高處有木板的情況下,也能順利低頭行進:

oops,撞到了一個膝蓋高的工具箱。別擔心,這是Wighton想看他的妻子“翻車”,故意設置的。(默默地又吃了把狗糧)

完整視頻戳這裏:
https://www.youtube.com/watch?v=8Au47gnXs0w
有網友評論道,“你應該管這叫**‘Eyepad’**”。
也有網友開玩笑地表示,“我的盲人朋友看到這個一定會很開心的”。
其實前陣子大火的百發百中籃球框和腦洞大開的自動剪頭髮機器也是這個YouTube博主發明的,真想敲開他的小腦袋瓜看看裏面都裝了些啥。
在這次的項目中,Shane Wighton表示,他所用的這個方法不是最簡單的,但卻是在他看來最有挑戰性的。既然如此,那我們也就來看看這個方法是怎麼實現的~
等等!那個“保温杯”是什麼?
在上述演示畫面中,你可能會注意到,和正常的iPad最大的不同是,Wighton的iPad上配置了一個像保温杯一樣的東西,別小看了它,這其實就是整個導航系統的關鍵。
越看越像保温杯👆
在視頻中,Wighton介紹道,這個小東西看起來不起眼,動手做起來也還是有點複雜,主要包括了以下材料:
一個微處理器(microcontroller);
藍牙連接模塊;
兩個步進馬達驅動器(stepper motor driver)。
如果要把這個導航系統真正做成一個產品的形式,可能還需要加上一塊電路板。
同時,Wighton表示,考慮到和iPad的尺寸匹配,和目前的運作情況,他也沒有再去進一步地把整個設備的尺寸進一步縮小處理。
但是,可以看到,這個“保温杯”有點太搶眼了,畢竟用小指針向上運動刺激手指關節也不需要特別大的動力。
但是管他呢,現在這個“保温杯”造型還蠻吸睛的。
其他還需要的零部件和購買鏈接都在視頻下方的介紹中貼出來了,大家感興趣的可以按照這個去採購一波:
部分零件清單
iPad還能這樣玩?感覺自己買了個假貨
解決了“保温杯”之謎後,我們首先來看看Wighton是怎麼利用iPad的LiDAR來實現障礙物識別的。
在這方面,Wighton首先就遇到了史上最大的困難——他沒有搭載了LiDAR的最新版iPad。
於是他就和妻子進行了一番協商:
I don’t have a choice here. I have to get this. It’s to help humanity.
Really? Humanlity? Don’t think about it.
似乎突然能理解為什麼他想看妻子“翻車”了。(手動狗頭)
根據LiDAR的工作原理,它能夠計算出光線從鏡頭射向物體、再從物體返回鏡頭的時間,再考慮到光的傳播速度,整個過程大約只需要25納秒。
也就是説,根據這25納秒內發射再返回的光線,就能夠知道障礙物距iPad有多遠了。這也是自動駕駛汽車的技術原理。
居然還配了Apple Pencil,該打!
可以簡單試想一下具體場景的工作情況,比如在如下場景,標黃的牆和標紅的椅子是障礙物,要避開,能夠通行的是中間的青色區域。

在視覺上識別障礙物和通路之後,還要把這種視覺信息轉換成針對手指關節的刺激,比如,如果該障礙物離你很近,這個刺激可能就會比較大,相反,如果物體較遠,給到的刺激也就相應較小。

於是,通過手部刺激,就**“繪製”出了一張你周圍的地圖**。
這還不止,當換成俯視圖時,我們會發現,還存在鏡頭看不見的地方,就是牆背後標黃的未知區域,要把已知區域和未知區域區分,在已知區域的分支下進行上述刺激轉換,難度瞬間就蹭蹭蹭往上竄了不少。

接下來就是沒日沒夜的編程和設計,又看到了熟悉的工作場景:

準備就緒之後,我們打開iPad中的這款應用程序**“HandEyes”,可以看到整個界面比較簡潔,右側就是簡單的控制按鈕**,用以切換視角和鏡頭放大,當拿着iPad在屋裏行走的時候,也能很方便地進行控制。

在左邊,有一個紅色按鈕,這是對深度數據(depth data)的一個預覽,能夠幫助看清鏡頭前方的路況。不過,Wighton表示,要是iPhone也支持LiDAR的話,整個設備就可以再簡便很多。

給手一個刺激,你就能“撬起”所有障礙
“看”的步驟搞定了,怎麼把視覺信息轉換成手部刺激呢?這就輪到“保温杯”出場了。
Wighton介紹道,與身體其他部位相比,我們的手相對而言就足以敏感,能夠根據外部刺激正確辨別來源方向。
比如針對上述場景,就能轉換成下圖右下方藍色區域內的刺激示意圖:
也就是説,在每根手指的每個關節處施以不同強度的刺激,就能幫助更好地復現障礙物的方向和位置距離。

把這個原理圖做出來大概就是這個亞子:

接下來的工作,就是沒日沒夜地組裝“保温杯”了:


大致的過程差不多就是這樣了,從效果上看,這個導航系統還是十分完美的,尤其是當熟用之後。
不過,根據Wighton的製作反饋,這個導航系統比他想象的還要難做。要是大家感興趣,也可以自己動手試試~
除了利用AI檢測障礙物,這個智能手杖還搭載了語音助手和谷歌地圖
正如上文所説,這款EyePad的實用價值在室內更能明確體現,想要出門散步的話,可能還是要用到智能手杖了。
目前,為給盲人提供更為安全和便利的出行服務,國內外都已經發明瞭多項技術,比如這款智能手杖WeWalk,就能彌補EyePad在户外場景的應用缺失。
值得注意的是,WeWalk聯合創始人Kursat Ceylan也是一位盲人,這不僅讓他有了研發熱情和動力,也使得WeWalk手杖能夠更加貼合盲人自身所需要的各種服務。
官網鏈接:
據Ceylan介紹,在障礙物識別上,這款手杖配備了AI技術,最遠能夠檢測出160cm外、與使用者胸部高度齊平的物體。
同時,手杖還搭載了亞馬遜的語音助手Alexa和谷歌地圖,通過藍牙連接,使用者可以與手杖語音交流,進一步護航盲人的室外出行。目前該手杖已支持英語、法語、意大利語、西班牙語、葡萄牙語、土耳其語和阿拉伯語。
除此之外,根據協助開發該產品的Jean Marc Feghali表示,他們不僅想要做一根“聰明”的手杖,還希望把手杖與運輸網絡和自動駕駛汽車進行融合。比如,WeWalk可以與交通信號燈互動,使用者在過馬路的時候無需按下按鈕,以及可以提醒使用者在公交車特定站點等待。
不管是EyePad還是智能手杖,技術正在為更多人做出貢獻,這本身不就是一件好事嗎?