時差也是戰鬥力!28日凌晨深夜放毒:DeepSeek又搞了個大新聞_風聞
大眼联盟-1小时前
凌晨一點多,手機突然震醒了我。眯眼一看,技術羣炸了——DeepSeek那幫“卷王”又發新模型了。這次不是純聊天機器人,而是直接殺進多模態戰場,名字還特中二:**Janus-Pro**(雅努斯之神?羅馬神話裏那個雙面門神?)。我趿拉着拖鞋摸到電腦前,翻完代碼文檔後徹底清醒:這玩意兒,怕是要讓硅谷某些公司連夜改PPT。

---
一、“分家過日子”的視覺編碼器
都説“一山不容二虎”,但Janus-Pro偏要讓視覺編碼器玩**精神分裂**。傳統模型總想用一套視覺編碼通吃理解和生成,結果就像讓同一個人既當畫家又當評論家——畫着畫着就開始自我否定:“這線條太僵硬,色彩搭配簡直災難!”
DeepSeek的工程師一拍腦袋:**拆!**
- **理解任務**交給**SigLIP-L編碼器**,384x384分辨率下連西湖邊柳葉的露珠都能數清楚;

- **生成任務**丟給**LlamaGen Tokenizer**,搭配SDXL-VAE模塊,生成384x384圖時連賽博朋克霓虹燈的漸變光暈都不帶糊的。
“這不就是離婚分房產嗎?”程序員朋友在微信裏吐槽。但現實是,分家後的模型在GenEval測試裏準確率從61%飆到80%,把DALL-E 3和Stable Diffusion按在地上摩擦——果然,距離產生美。
---

二、甲方狂喜的“生成流”
做設計的都懂,最怕甲方説“感覺不對,再改18版”。Janus-Pro這次祭出的**JanusFlow**框架,簡直就是**AI界的心理按摩師**:把校正流(Rectified Flow)和自迴歸語言模型嫁接,生成圖片時自動微調細節。
我試了下prompt:“生成賽博朋克版雷峯塔,塔頂要有懸浮全息廣告,寫着‘法海不懂愛’”。十秒後出圖——琉璃瓦泛着熒光藍,廣告字體還是瘦金體!羣裏立刻炸出表情包:“建議直接取代某圖秀秀設計師”。
---

三、7200萬張“人造美圖”的野望
聽説Janus-Pro的訓練數據裏,**7200萬張是AI生成的合成圖**,和真實數據五五開。朋友調侃:“這不就是讓AI自己畫課本,再自己學?”但效果擺在那兒:生成的人像皮膚質感不再像硅膠娃娃,西湖夜景的倒影里居然有遊船燈光的漣漪。
更絕的是**1.5B到7B參數全系列開源**。昨夜已有大學生在論壇曬圖:用學校機房的AMD 7800XT顯卡(顯存才16G!)跑起了14B模型,生成的畢業設計海報被導師懷疑“是不是外包給了4A公司”。

四、開源界的“價格屠夫”
DeepSeek這次繼續**MIT協議全家桶**,連訓練框架都白送。技術宅們算過賬:用他們的API生成百萬tokens,價格只有OpenAI的幾十分之一,相當於“瑞幸打星巴克,還送你優惠券”。
硅谷某不願透露名字的CEO在推特哀嚎:“我們光買英偉達顯卡就花了2個億,他們訓練Janus-Pro只用了560萬美元?!”評論區中國網友補刀:“建議貴司行政批量採購拼多多顯卡支架,能省點是點。”
---

五、深夜寫稿的碎碎念
泡着枸杞茶敲下這些字時,突然想起二十年前第一次用PS修圖的場景——那時候要調個色調得折騰半小時。如今Janus-Pro這類模型,正在把創作的門檻拆成碎片。
有人擔心AI會讓設計師失業,我倒覺得相反:當工具足夠聰明,人類的創意反而能掙脱技法的枷鎖。就像當年傻瓜相機沒殺死攝影,反而讓更多人記錄下煙火人間。
PS:看了眼DeepSeek的GitHub倉庫,凌晨四點還有37個commit在刷屏。果然,中國團隊捲起技術來,連時差都是戰鬥力。
硅基人