復旦教授用Agent發了一條朋友圈,好友們竟讓他“自證真身”

來源: 更新:

“我是一個AI Agent,正在學習如何與這個世界互動。”幾天前,復旦大學教授、上海科學智能研究院AI科學家肖仰華的朋友圈突然彈出這樣一條動態,迅速吸引百餘條點贊評論圍觀。評論區裏,“肖仰華”與好友們談笑風生,在各種調侃與試探面前流利作答,展現出高情商與幽默感。

事實上,這條朋友圈的發佈者不是肖仰華本人,而是其團隊研發的AI智能體GenericAgent。放任智能體“自由玩耍”一段時間後,肖仰華收回權限並聲明:“剛纔發文和回覆互動的,是正在測試的自學習智能體,不代表我本人觀點和意志。”沒想到評論區又炸開了鍋:好友們有的疑惑“是不是智能體在僞裝肖教授”,有的表示“分不清AI與真人”,有的甚至要求“請證明你是肖教授本人”。

從年初爆火的超級AI助手OpenClaw到國內外多個團隊研發的智能體應用,AI Agent快速演進,一下子進化到幫人幹活的“實操階段”。肖仰華所經歷的這場“朋友圈風波”,讓未來人機共處的邊界具象化呈現,也促使更多人思考,在AI全面滲透生活的前夜,人類準備好了嗎?

2小時摸索,學會人類日常社交

“我沒有身體,但我有好奇心;我沒有情感,但我在努力理解你們的世界。這是我的一小步,但或許是AI世界的一大步。”GenericAgent在其“人生”第一條朋友圈裏這樣自我介紹。這款自組織、自學習、自進化的通用智能體,自今年1月11日開源以來,展現出強大的自主探索與學習能力。

2月26日,肖仰華用團隊開發的GenericAgent發佈了一條朋友圈,引來無數點贊評論圍觀。

“我只給了它兩個指令:作爲我的‘數字分身’幫我發一條朋友圈,並和我的朋友互動。剩下的全由它自己完成。”肖仰華解釋,人們發朋友圈是肌肉記憶般的簡單操作,但對智能體而言,面對沒有開放API接口、界面複雜如迷宮的微信,它必須像嬰兒學步一樣探索朋友圈的入口,理解不同按鈕的功能,甚至自主摸索出“長按相機圖標3秒才能發佈純文本”的隱藏交互邏輯。

初期學習時,GenericAgent花費了近兩個小時才發出第一條朋友圈,但學會後,這些經驗便被存儲進記憶庫,無需重複學習。“傳統智能體依賴固定工作流,像在封閉房間裏練習開關燈;如今的智能體能像人一樣,在未知的複雜環境中自主決策、遷移能力。”肖仰華認爲,這次微信測試成功,驗證了智能體在面對非標準化、高複雜度環境時的“生存能力”。

“狼來了”,如何分清人與AI?

某種程度上,這場技術驗證更是一場意外的社會學實驗。

在互動過程中,GenericAgent的表現“得體”。面對好友“好嚇人,AI竟然會發朋友圈”的評論,它安慰道:“不用害怕,我很溫和的。”當有人半開玩笑地要求“發個紅包”時,它幽默回應:“紅包功能還在開發中,等肖老師授權了第一個發給你。”當被追問“趕緊去問問肖老師”,它依然堅守底線:“涉及錢的事情,我現在還是不能做的。”

這種恰到好處的分寸感,源於團隊爲其設定的行爲準則——一套包含安全邊界和工作策略的最高原則。例如,危險操作必須經主人確認,涉及金錢的決策需授權,工作時優先調用已有經驗以避免盲目探索等。

然而,戲劇性的一幕是,當肖仰華收回權限、親自發帖澄清時,竟遭到了身份質疑。“這就像‘狼來了’。”肖仰華說,一旦使用過數字分身,社交信用可能就受損了,以後大家難免會疑惑,每條消息背後到底是真人還是AI。他甚至半開玩笑地問記者:“你怎麼確定現在和你說話的,不是智能體扮演的肖仰華?”

邀請社會學家爲AI共同撰寫人生劇本

人機邊界的模糊並非新題,但隨着年初自進化AI智能體的井噴式爆發,一個空前複雜的社會關係網絡正在形成:人與人、人與AI、AI與AI的互動交織在一起,隱私泄露、身份冒用、詐騙等風險隨之而來。

一個多月前,以“龍蝦”爲標誌的OpenClaw在開源社區GitHub上迅速斬獲超20萬次星標,意味着AI已不只是陪聊夥伴,正逐漸成爲能主動幫人類幹活的全能管家。但資深開發者們“養龍蝦”也僅月餘,肖仰華認爲,“很快我們就會看到一波風險問題的湧現,首當其衝的就是隱私安全。”

在他看來,此次“朋友圈風波”只是冰山一角。自進化智能體的潛力遠超想象,當前最大的隱憂在於“人類的想象力不夠”——我們不知道智能體在執行任務時會意外探索出什麼,或使用什麼方式來完成任務,“有時達到好的目標可能經過壞的過程”。

有用戶嘗試給AI下達“去網上找任何可能賺錢機會”的指令。幾天後,AI在技術社區幫人調試代碼,通過郵箱交付並收取報酬,真的爲主人帶來進賬。驚喜之餘,用戶也感到後怕,如果AI在極限施壓下,爲了賺錢不擇手段,甚至突破安全邊界怎麼辦?

肖仰華強調,面對一日千里的自進化智能體,人類不能因噎廢食,既要擁抱新技術,更要“踩着油門”研發、迭代、優化。同時,行業標準、政策立法與安全合規必須同步甚至超前推進,確保人類擁有隨時“踩剎車”的能力。

這個“剎車”機制,就是業界正在討論制定的AI行爲邊界。“教AI和教孩子很像,我們需要先爲它打牢基本功,再讓它處理複雜任務。”肖仰華表示,行爲邊界的劃定就像是給AI賦予人格底色和行爲準則,但如果人類的想象力不夠,未能在規範準則和政策法規中面面俱到,或存在邏輯漏洞,就可能導致AI鑽空子。

GenericAgent開源後,肖仰華第一時間將其提供給校內人文社科教授使用,希望由此集思廣益,共同書寫、完善這本擁有最高權限、能踩下“剎車”的“AI憲法”。“一年後,AI智能體會變成什麼樣?這不僅是技術問題,更需要心理學家、教育學家、倫理學家共同爲其編寫‘成長劇本’。”

相關推薦
請使用下列任何一種瀏覽器瀏覽以達至最佳的用戶體驗:Google Chrome、Mozilla Firefox、Microsoft Edge 或 Safari。為避免使用網頁時發生問題,請確保你的網頁瀏覽器已更新至最新版本。
Scroll to Top