✍️ Gate 廣場「創作者認證激勵計劃」進行中!
我們歡迎優質創作者積極創作,申請認證
贏取豪華代幣獎池、Gate 精美周邊、流量曝光等超過 $10,000+ 豐厚獎勵!
立即報名 👉 https://www.gate.com/questionnaire/7159
📕 認證申請步驟:
1️⃣ App 首頁底部進入【廣場】 → 點擊右上角頭像進入個人主頁
2️⃣ 點擊頭像右下角【申請認證】進入認證頁面,等待審核
讓優質內容被更多人看到,一起共建創作者社區!
活動詳情:https://www.gate.com/announcements/article/47889
“離職同事被煉化,變成數字永生了”
近日,山東一間遊戲媒體公司嘗試將離職員工訓練成AI數位人繼續工作,話題#公司用AI复刻離职员工繼續工作#隨之衝上熱搜,引發關注。
據媒體報導,該公司一位在職員工表示,這是公司一次大膽嘗試,事件中的同事確實是離職了,經過他同意,他本人也覺得挺好玩的。該同事離職前是人事專員,數位分身目前能做諮詢、邀約、製作PPT和表格等簡易工作,有點笨,只能應對一些簡單指令。
雖然當事人不介意,但在網路上卻炸鍋了。「同事被煉化了」「我的全部努力變成了數位燃料」「往好處想,這也算數位永生呢」……緊張、無奈、苦笑,成了評論區的集體表情。那麼,為什麼出現一位離職員工的數位分身,會讓網友如此緊張?
一
「數位員工」並不是突發奇想,而是一項正在逐步「成型」的技術。
據報導,如今在AI領域已經有一個「同事.Skill」的項目,其功能是利用離職同事的工作數據,透過AI生成能替代其工作的數位同事。一經發布就爆火,還有人搞出了「老板.Skill」「前任.Skill」等衍生產品。
要說這項技術多麼高級,其實也談不上。有專業人士拆解稱,目前的「數位員工」就是一個遵循智慧體技能標準的提示詞+爬蟲工程項目,相當於給演員一份劇本,讓他按照劇本風格表演即可。這個智慧體不僅沒有記憶、不記得昨天說了什麼,也沒辦法蒸餾出「專業知識和判斷邏輯」。
說白了,這和鸚鵡學舌沒什麼本質區別。至少就目前而言,這樣的數位分身不能像一位真實員工一樣「對齊粒度」「實現專案閉環」「打通底層邏輯」,更不能「背鍋」。
那麼,它為什麼還是讓職場人緊張?
**這可能就是一種「恐怖谷」效應:當AI足夠接近「人」,卻又在關鍵之處明顯不是「人」時,人會本能地產生違和與不安。**這種不適來自一種感知層面的錯位——它在模仿人的表達、語氣與行為邏輯,卻缺乏真正的理解與經驗支撐,於是呈現出一種既熟悉又陌生的狀態。
雖說數位分身現在還沒有那麼聰明,但所有人都知道,它和機器人不一樣;它是離職同事留下的殘影,是「形似而神離」,既無法完全當作工具,也難以真正將其視為一個人。
正因此,人們感到了不安——並不是這東西本身多麼厲害,而是一種邊界的鬆動:「人」和「非人」還能清晰界定嗎?
二
AI的狂飆帶來了一種趨勢:人類正在失去對自我的掌控,我們以為的性格、思維邏輯、行事方式,所有這些「人性」,似乎都可以被數據化。
這並不是一種憑空而來的擔憂。國外最近就掀起了討論——「監控資本主義」。說的是科技、資訊和社群媒體領域的大公司,系統性地剝奪個人數據,並將這些數據據為己有。這種數據蒐集規模龐大,為強大的演算法和機器學習系統創造了條件,使其能夠預測人們的行為。這種監控又極其不對等:一方能看到另一方,而另一方卻看不到對方。
職場人也難以獨善其身:一個個普通人被數據化,進入平台與組織的體系之中,所有的表達習慣、判斷路徑、溝通風格,都被拆解為可重用的模組。經驗不再只是「經歷」,而變成了可以被複製、被調用的「資產」。人仿佛被抽空成一組隨時可調用的數據集合,留下的是模型,消失的是主體。
在這個過程中,公司受益,還沒離職的員工也能受益(獲得前同事的虛擬陪伴),但真正被「留存」的那個人(數據),卻逐漸被排除在價值分配之外。
由此,人似乎變成了某種程度上的耗材。一旦數據被擷取完畢,也就毫無價值了。只要想像這一幕,就已經讓人非常不安。
肯定很多人會想,能不能透過法律的方式,保護自己的權利?
已經有法律人士提出,這種數據蒸餾已涉嫌違法。離職員工的聊天記錄、工作郵件、個人工作習慣等,屬於《個人資訊保護法》界定的個人資訊,其中涉及的私密溝通內容還可能構成敏感個人資訊。未經員工同意蒐集、使用該類數據訓練AI,直接侵犯其個人資訊的蒐集、使用、加工權。
同時,依據《生成式人工智能服務管理暫行辦法》規定,生成式人工智能服務提供者應當依法開展預訓練、優化訓練等訓練數據處理活動;涉及個人資訊的,應當取得個人同意,或符合法律、行政法規規定的其他情形。
但就客觀而言,其中存在相當多的模糊地帶。私人聊天、郵件信箱或許可以被認定為隱私,那麼群聊發言、撰寫報告、會議發言呢?這些與工作崗位相關、發布於公開場合的內容,是否可以要求公司不蒐集?
平心而論,對企業來說,有價值的恐怕不會是什麼「說話風格」,這更像是玩梗的行為藝術,也不會是老闆們最在乎的;最容易被盯上的,是那些能被沉澱為流程、判斷與經驗的部分。
但這些被沉澱下來的部分,都和職場高度相關,「所有權」恐怕很難界定。總不能說一位員工離職,然後把自己參與的所有討論會議紀要都帶走吧?更別說AI會學習了,哪怕在離職前,難道又何嘗不會讓員工好好「交接」一下?
三
當然,這並不意味著職場人的「天塌了」。工作成果或許具有公共性,但其中的個人資訊依然是隱私。比如寫的報告是公開的,那麼在聊天記錄裡留下的「我在家旁邊的咖啡店加班」「最近生病要晚點交」這些個人資訊,是否可以被明確為個人資訊,並拒絕公司濫用?
這可能是非常細節的問題,卻恰恰決定邊界能否真正成立。也只有在這些看似不起眼的情境中,把「什麼可以用、什麼不能用」「什麼是工作、什麼是隱私」辨別清楚,個體才不至於在被數據化的過程中被整體打包、無差別地「蒸餾」。
讓法律規定逐漸明晰,至少也是一種安慰:也許打工人很難避免被「榨乾」價值,但至少能避免被「煉化」,留住人之為人的主體性。
仔細想想,對數位分身最恐懼的職業,其實還是傳統的工作模型:內容機械、流程高度標準化、主要依賴經驗主義的工作。這種工作終究是最容易被拆解的,一旦「蒸餾」就一覽無遺,迅速可被替換。這個問題,或許不是只有數位分身才會帶來威脅,只要隨著技術進步,危險就會到來。
這次由數位分身引發的討論,其實也是一次提醒:得盡快自我拯救。甚至還能成為一個反向提醒:為什麼我們不能先「煉化」自己呢?
這並不是說我們都要複製自己,這太怪異。而是我們要掌握AI的能力,把那些可以被提煉的部分主動梳理出來、結構化出來,由自己來定義、由自己來使用:哪些經驗是可重用的,哪些判斷可以沉澱為方法,哪些流程可以交給工具完成。
一句話,把可複製的部分交給系統,把不可替代的部分留在自己身上。
這就像前不久興起的「養蝦熱」,雖說因為安全問題而降溫了,但引發的全民熱潮其實是一種正向的態度——不再被動等待技術篩選,而是主動參與其中,理解它、使用它,盡快找到一個可以替代機械工作的工具。
這可能也是我們應對所有AI挑戰的辦法:盡快把自己從繁瑣的流程性工作中解脫出來,然後找回自己的「人性」,找到自己人之為人的、不可預測的創造性,去抵禦基於大數據的機械模仿。
必須要看到,職場正在重塑:AI不會取代你的工作,但「會用AI的人」會。重塑自己不是把自己變成數據,而是徹底變成無法被數據定義的人。
本文來源:澎湃新聞
風險提示及免責條款