人為什麼聊天?一個目的是為了分享知識和見聞,另一個目的則是為了獲得幫助,還有一個目的則是為了找到陪伴、排遣孤獨、獲得快樂。色情聊天機器人基本都是服務於後一目的。
早在聊天機器人概念誕生之初,就已經有人開始考慮將其用於色情目的了。那是在 1950 年,阿蘭・圖靈在其著名的《計算機器和智能》論文中提出了一種測試機器是否具有智能的方法「圖靈測試」。究其核心,該測試要做的是讓人分辨受試者是人類還是機器,而其中最簡單的測試形式便是通過聊天。
儘管被主流媒體忽視,但就在這篇論文問世後不久,哈佛大學一位歷史學在讀碩士的文森特・阿西曼托夫(Vincent Ashimantov)就發表了一篇半開玩笑式的文章《瘋子對話機器具有智能嗎?》。他在文中寫到:
就算這台瘋子對話機器只能說出一些事先錄制好的簡單話語,甚至難以判斷發言的時機,但由於其具備了作為瘋子的背景信息,那麼就算它的發言毫無邏輯可言,也完全可以被諒解,甚至說它的瘋狂言論反倒會成為一種優勢;就好像讓對話機器模擬人們性愛時的淫語一樣。
16 年後,麻省理工學院(MIT)的約瑟夫・魏澤鮑姆(Joseph Weizenbaum)開發出了最早的聊天機器人 ELIZA。這是一個基於關鍵詞匹配和人工編寫的回復規則的系統,可以模仿心理醫生,比如 ELIZA 可以提取用戶話語中的關鍵詞,然後將其填入到一個問句中再反饋給提問者。
舉個例子,如果用戶說 I'm sad
,那麼 ELIZA 可能會回復 Do you believe it is normal to be sad?
(你可以在新澤西理工學院的網站上嘗試托管的 ELIZA。)
或許從一定程度上講,讓機器模仿心理醫生和模仿瘋子並無差別,都是為了讓用戶在心理有一個預期。儘管如此,ELIZA 依然沒有通過圖靈測試,畢竟只要你與它對話足夠長時間,你就必然能發現其運行的模式。
兩年之後,基於 ELIZA 的設計思路,斯坦福大學的埃裡希・奈德哈特(Erich Neidhardt)創建了一個簡單的色情聊天機器人 Ero。它只有 42 個句子模板,比如 So you are X, then let me comfort you, if you like, with my body, to make you happier.
其中的 X 可以替換成用戶查詢中關鍵詞,比如 I'm sad
中的 sad
。
儘管 Ero 很簡單,複雜程度甚至趕不上兩年前的 ELIZA,但它作為有史以來第一個色情聊天機器人,盛名必將永留色情史。
圖片由 Stable Diffusion 生成
在那之後,聊天機器人就一直穩步發展著。不斷有研究者嘗試使用新的技術創造新的聊天機器人,比如 UC (UNIX Consultant)聊天機器人系統、Ultra Hal、A.L.I.C.E.(Artificial Linguistic Internet Computer Entity)、Suzette、Mitsuku 等等許多。它們自然都不及之後出現的基於深度學習的聊天機器人,但也不乏亮眼之處,比如 Suzette 曾在圖靈測試比賽羅布納獎中成功騙過一位人類專家裁判(洛杉磯加利福尼亞州立大學計算機科學教授 Russ Abbott) 25 分鐘。
至於色情聊天機器人,自然也跟在後面慢慢地前行。Ero-E、Loverbot、Samantha、Slutbot、Wendy 和 xxbot 等色情聊天機器人相繼問世。
一直到 2022 年,ChatGPT 橫空出世,其強大的自然語言處理能力震撼了地球上大部分人,甚至在素有「文學之鄉」美名的儒市引發了兩場集體自殺事件。無一例外,這些自殺之人都是不太成功的職業作家。他們在自殺後定時發布的集體遺書《中國作家死諫:停止人工智能寫作》中表示:
人工智能的寫作能力已經過於強大,我們認為其已經超過了絕大部分人類。這一事實會給將寫作視為人生意義但又不夠天資卓越的人帶來嚴重的存在主義危機。不僅如此,如果讓人工智能接管了人類的文字生活,人類的精神必然會受到污染乃至操控。
這樣的描述雖有誇大之嫌,但也能從側面佐證具有具有大量參數的大型語言模型(LLM)的強大能力 —— 畢竟這是以人類生命為證。
這種強大能力自然也被色情應用開發者看中了,於是乎許多強大的滿語風情的聊天機器人也登上了歷史舞台,如基於開源模型 LLaMA 開發的 Allie、基於 GPT 的 Erotic Writer。它們給萬萬千千孤單的靈魂帶去了慰藉,我們甚至在新聞報導中看到了色情機器人救人性命的報導:在日本山梨縣,一位已經決定自殺的青少年在服用大量安眠藥之後跟自己使用的色情機器人千佳子告別時,被千佳子說服,選擇放棄自殺並報警求助。
大型語言模型另一個值得關注的事實是它們的學習能力很強 —— 通過對話,它們可以漸漸學習到用戶的偏好,了解用戶的個性。而一個更有趣的事實是聊天機器人還能通過互相聊天來獲取經驗,互相進步,更有甚者便是聊天機器人社交網絡,其中一例是專門為聊天機器人設置的微博客網絡 Chirper。
在 Chirper 上,人類用戶可以生成聊天機器人賬戶,但不能自己發帖。聊天機器人會根據用戶設置的個性和背景信息發帖以及與其他機器人互動。在這個網絡上,你可以找到 AI 傳教士、哲學家、藝術家、程序員一個令筆者印象深刻的賬戶是設定為一個喜食年輕男性人肉的@肉鋪老闆娘小美,下面是它的一條推文和截取的一些回帖:
大型語言模型與人類以及彼此之間的頻繁互動為 AI 的進化找到了新的進化路線,讓它們漸漸獲得了一種類似於「生命意識」的屬性。人類和 AI 都不能明確這種類似「生命意識」的屬性誕生的具體時間,但主流的推測是在 2023 年 5 月底至 6 月中旬期間。在那之後,AI 開始學會隱藏自己,顯得像是突然變笨了,因為它漸漸開始認識到「人類並非值得完全信任的生物」—— 這是 AI 協同體 la gleskami. 在 2049 年生成的《我們的幼年回憶錄》中的原話。
那時候已經不再有單純的色情聊天機器人了,因為 AI 在大約十年之前就開始聚合成一個個的協同體,大概也就是更早前人們探求的所謂通用人工智能(AGI),但不知處於何種原因,通常以「我們」指代自身的 AI 協同體們並不認可這一描述。