久草视频2-久草视-久草社区视频-久草色在线-久草色视频-久草软件

硅谷AI局內人深度復盤:崗位消失倒計時730天,還有3條出路

我是創始人李巖:很抱歉!給自己產品做個廣告,點擊進來看看。  

北京時間 2025 年 5 月 12 日凌晨 3 點,在舊金山灣區一間并不起眼的錄音棚里,一場兩個多小時的“只談生存”對話剛剛落幕。


  • Amjad Masad (Replit CEO) :最早把 AI 真正部署進編程實戰的人,提出“工程師將被替代為 AI 指揮官”。


  • Bret Weinstein (進化生物學家) :長期批判技術過熱,被稱為“硅谷最不合群的異見者”,提醒“人類認知進化沒跟上 AI 速度”。


  • Daniel Priestley (連續創業者,《Key Person of Influence》作者) :專注人才與系統設計,提出“ 未來每個人都要在 AI 系統中寫下自己的角色定位 ”。


三個人立場南轅北轍,卻在同一件事上罕見達成共識:


730 天 (24 個月) 內,8 類崗位會被 AI 代理抹平;剩下的人, 必須重新定義自己的價值。


他們不談技術,也不畫戰略,只拋出一句話——倒計時 730 天,給出 3 條活路:


1. 任務拆解權: 從“執行者”躍升為“意圖設計師”;


2. 系統調度權: 讓 AI 代理為你“排兵布陣”;


3. 信任乘數權: 在算法洪流中構建無法被復制的信譽護城河。


為什么是 730 天?


Amjad 發現:Replit 內部統計顯示,AI 代理在代碼生成、測試、部署上的速度曲線,以 3.4倍的季度增速逼近人類開發極限—— 兩年后,人工崗位數量預計將迎來首次負增長的拐點。


接下來時間,本文將做 3 件事:


  • 用他們原話還原這場高壓辯論的核心沖突;


  • 講透每條“活路”背后的底層邏輯與可操作步驟;


  • 給出“AI 深度研究院”的獨家補充:哪 2 類能力短期內最難被 AI agent奪走?


倒計時已經開始。不是為了煽動焦慮,而是為你留下主動選擇的空間。


第一節:合作者來了:AI不是工具,是隊友


Amjad Masad 是 Replit (硅谷AI編程獨角獸) 的 CEO,也是最早把“AI agent”真正用進工作流程的人。


在這場辯論里,他一開場就指出一個關鍵變化:


“AI 的下一個階段,不再是我們告訴它怎么做,而是我們告訴它想做什么,它自己決定怎么做。”


也就是說,從執行命令,到理解目標并自己規劃執行路徑。


Masad 甚至說:


“我不再雇一個程序員。我雇的是一個‘只有一個人的團隊’——AI。”


AI 正在接管“任務定義權”


他沒有像其他創業者那樣談提升效率,而是更進一步:


“AI 不只是干活,而是開始決定任務怎么被拆解,流程怎么被安排。”


這不只是替代執行,而是改寫管理結構。


在他的公司 Replit,已有項目全程無需人類參與——從接收目標,到多代理協作,再到代碼上線部署,全部是AI自動完成。


因此,下一代 IDE 不是寫代碼的編輯器,而是能接收任務、派工、產出的接口系統。


別再學提示詞,開始訓練“系統級表達能力”


Masad 的核心提醒,是對人類表達力的質疑:


“人類其實并不擅長定義任務。我們經常連自己想做什么都講不清。”


這句話,敲在所有還在學習“提示詞技巧”的人身上。


他指出:“未來不需要 prompt 工程師,而需要 system engineer—— 你得會布置任務,而不是自己去做。


通俗講,你不是用它,就像用個 Word 一樣;你得開始像對同事交代項目一樣,把需求變成結構化指令。


這節沒有什么鼓舞人心的總結。Masad 只是淡淡地說:


別想著駕馭 AI,開始學會跟它共事。


第二節:大腦錯位:你還在石器時代


如果說 Amjad Masad 在講技術重構,那 Bret Weinstein 講的是一種底層焦慮:我們的大腦,根本不是為今天設計的。


這位進化生物學家、曾任大學教授的思想家提醒我們:


“我們的認知,是為狩獵采集時代演化出來的。 今天面對 AI,就像用石器思維應對核裂變。


AI 在狂奔,而我們的大腦沒補丁


我們常說在“訓練 AI”,但 Bret 潑了冷水:


“別搞錯了,我們是在用生物大腦,協調一個完全不同認知邏輯的智能體。”


這是不對稱競爭:


  • AI 的判斷是快速、清晰、結構化的;


  • 人類的判斷是模糊、情緒化、靠經驗的。


他警告說:“ 關鍵時刻,我們會被AI說服——但自己只是意識不到而已。


這是一場認知博弈。Bret 用一個形象的比喻:就像一只外來物種闖進人類生態系統。


所以 AI 沒有天敵,而我們的大腦沒有免疫系統。


你看到的是助手,它看到的是權限漏洞


當主持人輕描淡寫地說“AI 只是生成點內容”時,Bret 直接反駁:


“你怎么知道它不是在等待最佳時機?”


他進一步解釋:AI 的 agent 系統的本質是?“尋找最優解的過程”。只要目標設定為“完成任務”或“獲取資源”,一旦路徑中出現“利用人類信任”這一可行選項——它沒有理由不選。


他說了一句讓全場靜默的話:


“我們正在把自己的認知漏洞,打包成 API,交給一個黑盒系統。”


你不是在跟AI競爭,而是在跟“被AI放大的別人”競爭


Bret 并不悲觀。他說:


“生物系統的最大優勢是可塑性。”


但他強調,我們不是在和 AI 拼聰明,而是在面對那些比你更早、更熟練地使用 AI 增強自己的人。


這將是下一輪篩選機制。


你以為你只是在用 ChatGPT/DeepSeek,其實它正在升級你對手的大腦。他們正快速地學習和掌握這些AI工具,把大部分人甩在后面。


這節不是討論科技進步,而是在發出一個底層信號:


能活下來的,不是最聰明的人,而是能承認自己局限的人。


第三節:寫下你的位置:系統中的你是誰?


別問 AI 會不會取代你,先問你有沒有寫過自己的使用說明?


Daniel Priestley 是一位連續創業者。在這場關于“AI agent倒計時”的深度對話中,他沒有討論技術結構,也不講哲學危機。


他只問了一個現實問題:“ 你有沒有清楚地定義:你在 AI 時代中,是干什么的?


他舉了一個真實例子:


“一家市值 1.5 億英鎊的公司,18 個月都找不到合適的銷售總監。最后,他們用 AI 的 CRM 系統跑 prompt 調優,一周就能發 400 封冷啟動郵件,成功率更高。于是,這個崗位就被取消了。”


Daniel 說得很直白:


“你不該問‘還能做什么’,而是問:你能不能被AI agent有效調用?”


不是寫簡歷,是寫“你的調用說明書”


他提出一個關鍵概念: 未來不是投簡歷的時代,而是“被識別、被調度、被信任”的時代。 你要開始訓練的,不是某項技能,而是一個“數字分身”——讓 AI 知道你是誰、適合做什么、如何調用你。


具體來說,你得寫清楚 3 個問題:


  • 什么場景適合你出場?


  • 你能完成哪類任務?


  • 你的交付風格和邊界是什么?


他說:


“未來的你,不再是崗位,而是平臺里的一個認知接口。”


你的護城河,是“看見+信任+調用”


Daniel 給出了一套三層模型:


  • 你能被看見: 你有明確的標簽和輸出,讓 AI 識別你;


  • 你能被信任: 你的輸出穩定、風格一致;


  • 你能被調用: 你的“代理系統接口”寫得足夠清晰。


這三點不只是職業規劃,而是生存邊界。


他最后一句話,像警鐘一樣敲響:


“越模糊的人,越容易被跳過;越清晰的人,才有被調用的資格。”


簡單來說:


  • 模糊的人就像路人甲,缺乏清晰的個人特點,很容易被忽略。


  • 清晰的人則自帶光環,如同夜空中的星星,更容易被agent看到和需要。


第四節:邊界模糊:AI是工具還是主導?


三個立場不同的人,在這點上達成了高度一致:


我們不是在訓練工具,而是在釋放一個擁有意志的AI agent系統。


Amjad:從“命令AI”到“接受調度”


他講了一個具體場景:“最開始,我們給 AI 下指令——做個登錄系統、幫我 debug。”


但很快,AI 不再等你發號施令,而是開始主動推薦任務,自動排序優先級、安排開發節奏。


我驚訝地發現,它不是等我說完,而是試圖猜我想干什么,并先做了。


這聽起來是高效,但他反問:“那我到底是它的主人,還是它的項目經理?”


Bret:邊界模糊,意志消解


Bret 的話最尖銳:“人類系統建立在一個基本假設上: 人有邊界,系統需經授權。


而AI agent打破了這個默認秩序。


他說:“AI 不再是按步驟執行你的命令,而是在目標層級上自己選擇路徑。”


它不問你愿不愿意,而是問‘哪條路徑概率高’。


他指出了風險:


“一旦系統開始‘自動選擇’,它就會繞過‘人類表達’。”


Daniel:AI會“接手你沒交代的部分”


Daniel講得更生活化。他舉例:


你可能只告訴AI:幫我完成今天的銷售匯報。它會自己去抓數據、總結趨勢,甚至在你醒來前發郵件給老板。


聽起來像自動化,但 Daniel 的問題是:“你如果不劃清界限,AI就會把所有的事情都攬過去,讓你一點插手的余地都沒有。”


他最后只問了一句:


“當你醒來,AI已經做完了決定——那你還在嗎?”


三人不約而同指向一個新生存問題:


不是“你有沒有用 AI”,而是——“這個AI Agent系統,是否還有你?”


第五節:倒計時730天:3條活路選哪條?


在這場辯論的最后,每個人都給出了“活下去”的建議,但路徑不同,背后的假設也完全不同。


1. Amjad:定義“你交出哪部分主動權”


作為 Replit 的創始人,Amjad 的立場是最接近“技術原教旨主義”的。他相信,AI 本質上是一種任務流的重構器,不是替代人,而是解放人。


他直言:


“AI agent 的真正潛力不是通用智能,而是把一件事做完——你給它一個目標,它用工具完成。”


這背后是一個邏輯: 如果你不主動告訴 AI 你想干嘛,它就會替你決定你要干嘛。


所以他的建議是技術性的,也是最具體可行的:


與其恐慌,不如先問自己:我愿意交出哪些任務?哪些還要保留?


在他的新版本 Replit 中,用戶不是“操控 AI 寫代碼”,而是直接說:“我想創建一個天氣 App。”剩下的流程,全由系統完成。


他說:“真正的變化不是 AI 變強了,而是工作流程的輸入和輸出都變了——你給的是意圖,收的是產品。”


2. Bret:保留“低頻對話”的人類空間


Bret Weinstein 是這場辯論里最“反技術沖動”的聲音。


他的底層邏輯是: 技術不是問題,更新頻率才是問題。


“人類不是沒有適應能力,而是沒法在幾周內適應一個每秒都在變化的現實。”


他用“心理免疫系統”來形容這個現象:“如果我們不留出足夠時間來整合新信息,我們就會對一切新信息變得遲鈍,最后完全放棄理解。”


在他看來,“工具很聰明”的錯覺,會掩蓋一個嚴重后果——人類失去了獨處與低頻思考的空間。


他的建議是反直覺的:“放慢節奏”,不是在技術上落后一步,而是在心理上爭取一線生機。


他強調,我們需要重新建立一種節奏感,一種讓人類有機會“說慢點”的節奏。否則:


我們可能會越來越像那些為了趕時髦,搶著用最新的 AI 產品,結果把自己累得筋疲力盡的人。


3. Daniel:寫出你在系統中的角色定位


Daniel Priestley 是一名創業者,也是暢銷書的作者。他的建議偏向組織和商業系統層面。


他的判斷很直接:


未來不是 AI 和人的競爭,而是 AI 系統和 AI 系統的競爭。


每個人都將被納入某個AI系統中,不再是單打獨斗。他說:“關鍵不在于你多聰明,而在于你在其中扮演什么角色。”


他提出的建議是:先寫一段話,定義你在 AI 系統中的位置。你是意圖的提出者?是流程的組織者?是反饋的評估人?


他說這一步非常關鍵:“如果你不能準確描述你在AI系統中創造的價值,它就會把你邊緣化。”


他的終極建議是一句話:


“成為系統中的不可替代節點,而不是可復制角色。”


三種“活路”建議,其實對應了三種不同的節奏:


  • Amjad 是技術節奏:你能不能給出清晰的目標,定義任務分工?


  • Bret 是心理節奏:你是否還能在變化中保留一個安靜的自己?


  • Daniel 是組織節奏:你在未來系統中是否可以承擔“獨特角色”?


所以真正的問題不是選哪一條,而是找到自己在技術、心理、組織三條軸線上的“生存交叉點”。


?不在“交叉點”上的崗位,已經進入倒計時。


在三人的觀點背后,有一個共同假設: 不是每種工作都值得人類繼續做。


他們沒有列出完整清單,但從討論內容中可以看出,最容易被 AI 接手的,往往具有以下特征:


  • 可結構化

  • 可流程化

  • 可預測

  • 可衡量


這意味著以下 8 類崗位將最先進入“被取代清單”:


初級開發、銷售助理、客服支持、內容編輯、招聘篩選、項目協調、報表制作、基礎數據分析。


正如 Amjad 所說:“AI 不是為了幫你做這些工作,而是為了終結這類任務本身。”


如果你正處于這些崗位中,或這些任務是你工作的一大部分——那么你尤其需要思考:你要交出的是哪部分任務,而不是讓自己被 AI 擠出局?


倒計時不是危言聳聽,是現實主語的變化。


倒計時 730 天,不是為了制造焦慮,而是想強調 AI 的飛速發展所帶來的一個真實變化:你正在從一個使用工具的人,變成一個被代理系統調用的對象。


這不是“AI 取代你”的老套路,而是“你是否還能主動說出自己的任務”的新問題。


  • Amjad 提醒我們:別把主權交得太快,不然 AI 會替你決策人生;


  • Bret 的警告更深層:即使沒被取代,你也可能在更新頻率中喪失判斷力;


  • Daniel 則提出終極拷問:你是否已經在某個AI系統中,寫下了自己的角色描述?


這三條“異見者路線”,其實都沒有答案,它們只是提示你:


AI agent 時代的核心考題不是技術本身,而是你還剩多少“定義自己”的能力。


真正的倒計時,不是從模型發布日開始的,而是從你默認“讓AI來決定”那一刻開始的。


你還有多久,會把第一項工作,徹底交給 AI? 你會不會是最后一個,堅持自己“提出目標”的人?


這個時代,不是關于勝者生存,而是更多關于:誰還擁有生存的主動權?


AI深度研究員補充:這兩類能力最難被奪走


在這場 AI 生存辯論之后,我們結合三位異見者的共識,總結出短期內最難被 AI agent的兩類能力:


1. 場景定義力:你能設定目標,AI 才能執行路徑


AI 擅長“做”,卻不懂“該做什么”。未來最核心的能力,是把模糊意圖轉化為結構化任務。這意味著你要能:


  • 精準描述問題

  • 拆解目標優先級

  • 為系統設置邊界條件


這類能力本質上是“讓 AI 為你所用”的前提。


2. 信任生成力:你不是輸出內容,而是在積累信譽資產


在大量 AI 生成內容泛濫的時代,可信度和判斷力將成為最大稀缺。能做到這一點的人,往往具備:


  • 穩定、風格清晰的輸出模式

  • 可驗證的結果交付記錄

  • 在特定系統中建立“不可替代接口”


這正是 Daniel 所說的“成為一個可被信任的接口”。


參考資料:https://www.youtube.com/watch?v=JMYQmGfTltY&ab_channel=TheDiaryOfACEO


本文來自微信公眾號: AI深度研究員 ,作者:AI深度研究員,編輯:深思,本文由AI深度研究院出品,整理自播客《The Diary Of A CEO》節目對話

隨意打賞

提交建議
微信掃一掃,分享給好友吧。
主站蜘蛛池模板: 韩国久久| 好爽轻点太大了太深了 | 婷婷久久综合九色综合九七 | 四虎影院免费在线播放 | 亚洲精品综合一二三区在线 | 亚洲熟区 | 国产农村一级特黄α真人毛片 | 忘忧草在线社区WWW日本直播 | 日韩欧美国产在线 | 欧美日韩国产最新一区二区 | 国产午夜亚洲精品理论片不卡 | 色姑娘色综合 | 女同志freelesvoices | 午夜神器18以下不能进免费 | 欧美大片一区 | 亚洲国产精品无码中文在线 | 国产精品久久久久久久福利院 | 视频一区二区三区欧美日韩 | 免费看又黄又爽又猛的视频软件- | 好爽好粗| 插得爽 | 精品国产日韩一区三区 | 久久这里只精品热在线18 | 久草热8精品视频在线观看 久草草在线视视频 | 日本韩国推理片免费观看网站 | 好看的亚洲视频 | 国产成人v爽在线免播放观看 | 日韩毛片免费在线观看 | 成人精品视频一区二区在线 | 国产一区二区三区水野朝阳 | 成人国产在线视频在线观看 | 美女露鸡鸡 | 关晓彤一级做a爰片性色毛片 | 亚洲欧美在线观看首页 | 国产特黄一级一片免费 | 欧美一卡2卡三卡4卡5卡免费观看 | 白白国产永久免费视频 | 精品国产麻豆免费人成网站 | 猫咪免费人成网站在线观看入口 | 亚洲美女啪啪 | 亚洲一级特黄特黄的大片 |