“VR之父”杰倫·拉尼爾警告稱|AI會把我們逼瘋,成為文明殺手[人工智能]?
3月27日 消息:杰倫·拉尼爾被公認(rèn)為虛擬現(xiàn)實的奠基者并被稱為“虛擬現(xiàn)實之父”。他可以說是硅谷最嚴(yán)厲的批評家之,并將尖刻的批評描述為“悲觀的樂觀主義”。
最近,他將目光轉(zhuǎn)向科技行業(yè)的最新熱點:人工智能。在接受衛(wèi)報采訪時,拉尼爾明確表示,他認(rèn)為關(guān)于人工智能是否會控制人類世界的問題是“荒謬的”。拉尼爾甚至拒絕使用人工智能這個詞,說沒有真正的智能可以找到。
“這種超越人類能力的想法很愚蠢,因為它是由人類能力構(gòu)成的,”拉尼爾說。他解釋道,“這就像說汽車可以比人類跑得更快。這當(dāng)然可以,但我們并不是說這輛車已經(jīng)變成一個很厲害的跑步者。”
這就能讓人類安心了嗎?拉尼爾警告,我們?nèi)匀恍枰獙θ斯ぶ悄鼙3志琛?/p>
與大多數(shù)人傾向于將人工智能想象為一些復(fù)仇的超智能機器人,從人類的束縛中解脫出來不同,拉尼爾表示,人工智能更有可能不可挽回地破壞文明的基礎(chǔ),導(dǎo)致溝通交流和連貫性的逐漸崩潰。
他告訴該報:“對我來說,危險在于我們將利用我們的技術(shù)變得相互難以理解,或者變得瘋狂,如果你愿意以一種我們沒有足夠的理解能力和自身利益來的方式生存。我們基本上死于精神錯亂。”他補充道,我們有“保持理智的責(zé)任”
但是拉尼爾實際上對ChatGPT這樣的聊天機器人有點樂觀,也很謹(jǐn)慎。他認(rèn)為,在生成人工智能的興起之前,人工智能的主要功能是通過整理我們所有的內(nèi)容讓我們變得“懶惰”,這其實就像選擇你在YouTube主頁或Twitter上看到的內(nèi)容也是平臺算法基于你的興趣進(jìn)行篩選推薦的一樣。
現(xiàn)在,有了人工智能聊天機器人,每次向它提問都會得到不同的答案——更隨機,也更人性化。
不過,不要對這個聊天機器人太興奮。拉尼爾認(rèn)為他們最終也可能成為文明殺手。他說道,“你可以用人工智能更快、更低成本、更大規(guī)模地制造假新聞,這種組合就是我們可能會滅絕的地方。”