GAITC2025全球人工智能技術大會 | 每日互動方毅:用人工智能的專注力做高速交通預警和腦卒中早篩模型
“人工智能的翻譯可能存在一個誤會,它更適合叫‘人造智能’,對應的是‘神造智能’。‘人造智能’模擬了神造智能過程中的規(guī)律;如今我們也可以從人造智能身上重新學回‘神’的智慧。”6月8日上午,每日互動方毅在2025全球人工智能技術大會(GAITC)智能 傳媒 專題活動上,分享了對人工智能的最新思考和行業(yè)實踐。那么到底何為人工智能?人類可以從“人工智能”身上學到什么?未來人類最重要的能力又是什么?請大家?guī)е@三個問題,跟我們一起尋找答案。
問題一: 為何將AI的定義為“人造智能”?人類能從中反哺哪些智慧?
方毅:習慣上我們對Artificial Intelligence(人工智能)的翻譯易讓人誤解為"人工+智能",但是可能更適合的翻譯是"人造智能",它的對應詞是"神造智能"——古代傳說中,上帝或女媧制造了有智能的人類,而"人造智能"或者說AI,正是在模擬這種神造的智慧,總結神造過程中的規(guī)律。比如,古希臘神話里,火神跟工匠之神造了個機械守衛(wèi)叫“塔洛斯”,用他來守護克里特島。結果卡洛斯被女巫拔掉了腳上的栓,“神的血液”流光之后就廢了。這個“血液”就相當于現在人工智能中的“數據”。這也提醒我們,AI時代,數據是一個智能體的重要命脈,一旦流失或者泄露,將帶來毀滅性的風險。
那么人工智能還可以“反哺”給人類哪些“神造”智慧呢?我認為最重要的是“專注力”(All About Attention)。大模型運算沒必要每次把671b都啟動起來,那樣非常費力,只啟動一小部分跟“我”相關的參數即可。所以大模型用MoE架構,平均每次只激活3.2個專家模塊解決問題。就像我們開會時,先找最懂行的3個人討論,再快速匯總結論,效率遠高于全員耗在細節(jié)里。我們如果通過三種棋類 游戲 來看人工智能的發(fā)展給我們的一些啟發(fā)可能會更加形象。
第一點是人機對弈代表的專注于“把規(guī)則吃透”。就像大一時我寫的五子棋的游戲程序,規(guī)則很簡單:三個子連一起,兩頭沒堵你就得堵;記住規(guī)則就能干。現實中大家去考證也是一樣,精研各行業(yè)的規(guī)則,拿出“證”來,把規(guī)則范圍內的事搞清楚。
第二點是“深藍”代表的“凡事比別人多想兩步”,也就是養(yǎng)成深度思考的慣性。“深藍”和人類都能夠背國際象棋的棋譜,但是為什么人類打敗不了“深藍”呢?因為它會比人多算兩步。凡事比別人多想想在現實中是非常難得的。就像一個好的助理,他的價值就在于能不能預見你下一個問題,并準備好方案——就像深藍,多算兩步就贏了。
第三點是AlphaGo代表的“笨鳥先飛”。AlphaGo背了人類的圍棋棋譜才四段水平,但通過自我對弈100萬盤,四個月登頂,這就是“強化學習”。同樣還有強化學習“上癮”的DeepSeek——因為它炒股,如果 投資 失敗會虧錢,所以它強化學習上癮。所以我們學AI,要學“笨鳥先飛”:每一步都在進步,這就是我們古話說的,“日拱一卒,功不唐捐。”
問題二:如果說數據是人工智能的重要命脈,那么如何看待大模型時代的數據安全問題?
方毅:最近我碰到最多的一個話題是“不要回避數據的危險性和不確定性”。不要動輒說今天不談隱私,不談 商業(yè) 秘密,這不談那不談就相當于房地產開發(fā)不碰坡地、不碰平地、不碰林地。數據天然有它的不確定性,可復制性,“覆數難收”。所以我們把數據比喻成核燃料,一定直面它的危險性,當把核燃料轉化成熱能,再轉化成電能的時候,經過兩道轉化,那就成了可公開使用的數據智能。
比如我們聯合生態(tài)公司研發(fā)的“數智綠波”產品,就是把 互聯網 數據與公共交通數據在可信數據空間中進行聯合計算,通過可控大模型計算出道路路口流量信息,最后成功實現對紅綠燈的智能調控。
問題三:那么人工智能或者說人造智能給人們的生活帶來了哪些改變?
方毅:比如在交通安全領域。我們通過“高速視覺AI檢測”,快速精準定位高速道路風險,讓預警跑在報警前。高速上拋灑物是噩夢。傳統(tǒng)視頻檢測費時費力,我們遵循“all about attention”,“動中找靜”——透明化常規(guī)動態(tài)部分,圈出靜止異常部分,強化監(jiān)控目標,讓交警大屏信息一目了然,提高預警效率。
在醫(yī)療健康領域,我們推出“腦卒中早篩模型”,用人工智能來識別高風險人群,以達到“上醫(yī)治未病”。中風患者每年的及時送醫(yī)率僅5%。傳統(tǒng)腦卒中篩查方案參數少,精度低;我們用全因子醫(yī)療數據特征+機器學習模型算法來訓練大模型,將這個早篩模型的預測精度提高到0.91,也就是通過5%的樣本群體就可以預測明年50%的潛在風險人群。
再比如在反詐宣傳上,傳統(tǒng)宣傳如反詐標語“凡裸聊刷單即詐騙”,導致公眾誤以為只要我不關注這些那么詐騙就與己無關。但是真正智能靶向的反詐宣傳,需要對群體有更精準洞察,畢竟現實中“總有一款詐騙適合你”。所以我們提出了基于12維數據分析生成的網絡詐騙易感風險(蚱蜢分),方便有關部門向不同人群推送定制化的反詐案例——例如向商務人士發(fā)送如何識別“偽造高管郵件”騙局。
問題四:未來大模型時代人最重要的能力壁壘是什么?最需要什么能力?
方毅:未來大模型時代當中很重要的是你自己的個人知識庫。人們需要有辨別大模型謬誤并通過指令訓練來糾正大模型幻覺的能力。一定是基于個人知識庫來使用大模型。所以我認為模型越來越開源,數據永遠會有相當部分是閉源的數據。未來不管對于企業(yè)還是個人,用閉源小數據加上開源大模型是非常重要的路徑。
當然對于個人來說,我認為未來最重要的能力是“提問和定義問題”!AI越強,人越要學習它怎么思考。比如電商搜索,我找個語音設備,搜兩周沒結果。為什么呢?意圖識別太差!得用大模型重構搜索,讓用戶專注“值得看的東西”。
駕馭AI的關鍵是別讓它當“槍手”,而要當“助手”。就像會計師從算盤到計算器再到excel,寫作也該“動嘴不動手”。比如我們推出的“公文寫作助手”可以幫助大家更好地完成公文寫作,基于我們被授權的2,000萬權威語料,我們有關工作人員可以通過語音交互來指導大模型完成一篇內容的寫作。
幾年前我曾參加一次與法國學者的交流,大家最終達成的共識是“未來人類將分化為兩類:2%的深度思考者(定義問題、駕馭AI),與98%的幸福生活者。”而我們要做的,就是讓技術成為托舉普羅大眾的方舟,而非割裂世界的鴻溝。