盤盤DeepSeek丨讓人類變聰明還是變低能?看看人工智能專家怎么說

  湖南日報·新湖南客戶端   2025-02-10 21:41:01

編者按

春節(jié)期間,一家創(chuàng)新型科技公司推出的人工智能對話助手——DeepSeek(深度求索)引發(fā)了社交媒體上的大討論。DeepSeek具有中文深度處理能力,在短短十幾秒內便能生成上千字的高質量文章,且創(chuàng)作的詩歌和文章,水平遠超一些普通作者,在小說創(chuàng)作方面也具備了良好的敘事能力,令人們驚嘆惶恐。此前,我們向DeepSeek提了關于作家與創(chuàng)作的問題,它告訴我們:“最危險的或許不是AI會寫作,而是人類在技術便利中逐漸遺忘如何用顫抖的手書寫靈魂的戰(zhàn)栗。”(向DeepSeek提問:如果你是作家,會寫什么?

透過DeepSeek這扇窗,人工智能時代巨大的潛力已經展現(xiàn)在我們眼前。在這個系列中,我們將陸續(xù)邀請幾位來自不同專業(yè)領域的嘉賓探討相關話題。

湖南日報·新湖南客戶端記者 廖慧文

本期嘉賓

張軍平,科普作家,人工智能領域知名專家,中國自動化學會普及工作委員會主任,復旦大學計算機科學技術學院教授、博士生導師,獲“典贊·2022”科普中國”年度科普人物提名。主要研究方向包括人工智能、機器學習、圖像處理、生物認證及智能交通。出版科普著作《人工智能極簡史》《愛犯錯的智能體》等。其中《人工智能極簡史》2024年獲第19屆文津圖書獎提名圖書(科普類)和清華大學2024暑期推薦閱讀書目。《愛犯錯的智能體》獲得 2020年中國科普作家協(xié)會第六屆優(yōu)秀作品獎金獎。


張軍平認為,DeepSeek底層技術邏輯與其他大模型相似,仍依賴于思維鏈等模式來生成文本,并通過強化學習不斷優(yōu)化。我們需要在享受人工智能帶來的便利的同時,保持對知識產權保護、信息真實性、思維工具化等問題的關注和警惕。同時,在兒童和青少年使用時,應確保人工智能具有較高的道德水準。

用來創(chuàng)作?可能侵權或被“剽竊”

湘江:春節(jié)期間,DeepSeek引發(fā)了廣泛關注。您對它有什么感受?

張軍平:從個人角度來看,DeepSeek在內容表達上與其他大模型差異不大,但使用起來更為方便,主要體現(xiàn)在三個方面:支持本地化部署;整體部署過程較為簡便;相比其他大模型,使用成本較低。

此外,DeepSeek具有開源特性,且主要面向國內市場。它的訓練成本僅約550萬美元,當然,這不包括硬件和人員費用,總體成本相對較低。相比之下,GPT-4o不開源,基礎費用每月20美元,更高級的可體驗o1Sora)費用較高,每月200美元。據傳,OpenAI會推出一個迷你版的免費GPT-o3-mini。

GPT系列相比,DeepSeek的幽默感似乎也更勝一籌,這可能與其訓練數(shù)據有關之前對大模型的訓練中曾發(fā)現(xiàn),如果使用百度貼吧“弱智吧”的語料庫,人工智能會提升對話和推理能力。DeepSeek-R1采用混合專家技術后,會根據情況開啟用貼吧歷史神貼、微博熱搜爭議及B站彈幕戰(zhàn)爭等”數(shù)據訓練后的專家組來回復。結果,DeepSeek有時會開一些(尺度)較大的玩笑,這可能也是它受歡迎的原因之一。

湘江:大家最驚訝的是DeepSeek的中文處理能力。有邏輯之外,它還有溫度、有創(chuàng)意,讓我們感覺人工智能越來越像人,而不僅僅是一個工具。

張軍平:思維鏈是指模型在生成文本或回答問題時,按照一定的邏輯順序逐步展開思考和推理的過程。以前的大模型中,思維鏈通常表現(xiàn)為“首先、其次、第三、總而言之”等結構化表達。而DeepSeek則通過學習已有模型的思維鏈模式,提煉出有價值的內容,并通過強化學習進行優(yōu)化,從而生成更具創(chuàng)意和更豐富的文本。

雖然我們感覺DeepSeek越來越接近人類的表達邏輯,但本質上它仍然有與其他大模型相通的套路。

湘江:我們能不能通過一些方式,判斷作品是否是人工智能的創(chuàng)作或者判斷作品中使用人工智能創(chuàng)作的比例,隨之辨別侵犯著作版權的風險?

張軍平:人工智能模型通過學習海量文本數(shù)據來訓練,這些數(shù)據幾乎涵蓋了人類創(chuàng)作的所有內容。人工智能生成的內容可能會無意中包含或模仿已有作品,它自己又會創(chuàng)作和改變一些。這帶來了很大的風險:你很難追蹤多少來自特定的人類創(chuàng)作,多少是它自己生成的,也很難判斷其是否涉及侵權。我們日常使用,如發(fā)送祝福語或撰寫年終總結,風險較小。但如果是創(chuàng)作作品并發(fā)表,要謹慎。

湘江:一些創(chuàng)意工作者擔心人工智能會剽竊和洗稿。您有什么建議?

張軍平:目前很難避免人工智能使用已有作品訓練。建議作家在作品完成前不要使用人工智能潤色,因為人工智能可能會將數(shù)據納入訓練庫。如果使用本地化模型,可能部分避免這個問題,但是我們也不確定有些模型否會在聯(lián)網更新時上傳相關數(shù)據,總體上仍需謹慎。

人工智能謠言時代?已經開始了

湘江:我們發(fā)現(xiàn)人工智能在處理知識性問題時,有時會移花接木,融合信息,還會給出一些看似權威的來源,非常有邏輯,難以辨別真?zhèn)?。人工智能是否會導致我們進入謠言升級的時代?您認為開發(fā)者應該如何解決這一問題?DeepSeek有看病功能,您覺得靠譜嗎?

張軍平:現(xiàn)在的人工智能有一個問題,就是會“一本正經地胡說八道”,并且不愿意承認錯誤。即使指出錯誤,它仍會繼續(xù)編造。這會導致造假成本降低,同時用戶糾錯成本增加,有的時候還不如自己撰寫。

“謠言升級”時代現(xiàn)在已經開始了。比如網上很多新聞我是不太確定真假,就是因為很多自媒體創(chuàng)作者在用人工智能來生成內容。未來人工智能謠言會越來越多。人們應該要學會做一些鑒別,比如要通過多平臺去驗證信息,而不是依賴單一平臺。

至于開發(fā)者如何避免?在我看來,第一,比如DeepSeek有聯(lián)網功能??梢詭椭阉鞯揭恍┫鄬碚f比較準確的信息。第二,在模型訓練的時候,要適當加入一些信息,去幫助糾錯。第三,我們需要期待有專門的AI鑒真軟件的出現(xiàn)。

人工智能能不能看???我個人覺得還是找醫(yī)生更靠譜一點。醫(yī)生最怕的就是病人說自己先百度搜索了。我相信,未來醫(yī)生最怕病人來看病時先說我是先問AI大模型的。

人類變得超級低能?應該警惕!

湘江:您認為當前人工智能的發(fā)展方向是否正確?我們是否應該警惕人工智能在某些領域的廣泛應用?

張軍平:許多大公司認為大模型是通向通用人工智能(AGI)的潛在方向。通過不斷改進推理能力和利用虛擬語料數(shù)據,人工智能正逐漸接近人類的智力水平。然而,我們也需要看到人工智能的局限性。

莫拉維克悖論指出,機器在執(zhí)行高級數(shù)學計算等困難任務時表現(xiàn)良好,但在感知和運動控制等簡單任務上卻表現(xiàn)不佳。這表明我們對“智力”的定義可能過于狹窄,過于側重于邏輯推理和語言處理能力,而忽視了感知、運動和情感等更基礎的智能形式。

我們可能也需要重新去思考一下,到底什么是真正復雜的?我們有什么東西沒有做好?

今年春晚有個機器人跳舞的節(jié)目,跳得很不錯。但大家也發(fā)現(xiàn)機器人跟真實的生命比還差得很遠,下臺需要操作人員拎著機器人脖子下去,還需要用手柄來遙控。我們人工智能有兩大方向,一個是認知,包括語言理解、邏輯推理、問題解決等。現(xiàn)在已經做得還不錯了,但是感知世界、精細運動控制等方面仍然還很弱。人工智能的發(fā)展方向應該是不僅要提升認知能力,還要加強感知和運動控制等方面的能力。

湘江:您之前引用過德雷福斯的話,他說如果未來人類高度依賴人工智能,那么可能會導致的結果不是讓人類變聰明,而是會讓人類變成超級低能。您認同這樣的觀點嗎?我們去學習某一樣東西,剛開始先了解概念,然后淺思考,再深度思考,但是人工智能是直接給深度思考的答案,您覺得這樣有助于提升我們的認知嗎?

張軍平:我即將在4月份由湖南科技出版社出版的一本關于人工智能的書提到這個關于學習的問題。我們目前的學習大致上有兩種模式:兒童/青少年學習模式和成人學習模式。兒童/青少年在學習新知識時,通常被建議先自行思考,嘗試解決問題。只有在遇到困難時,才尋求外部幫助,比如請教老師、同學或使用人工智能工具。這種學習方式有助于培養(yǎng)他們獨立思考和解決問題的策略,形成個人的學習能力和風格

但是現(xiàn)在很多成年人不是這樣的,喜歡首先依賴人工智能生成文本或解決方案,然后再根據人工智能的輸出修改。這樣的做法導致,實際上使用的初始框架和思路是由人工智能提供的,然后在人工智能的基礎上,去做“再創(chuàng)作”。它帶來潛在的風險是,可能很多困難的問題已經用人工智能解決掉了,人只是去做一些比較簡單的修改。那也就意味著有可能沒有辦法形成自己的思路、自己的邏輯,甚至自己的靈魂。長此以往,我們可能會失去獨立思考和形成自己獨特思路的機會,最終會使人類在某些方面變得“超級低能”。

另外,我們可能為了更好地利用人工智能,會不自覺地迎合人工智能的思維邏輯,以期獲得更符合預期的輸出。市面上已經出現(xiàn)了許多關于如何高效使用人工智能工具的書籍和課程。這種趨勢可能導致人類思維方式的趨同化,即人們更多地關注如何利用人工智能,我們可能會變得過于依賴人工智能,甚至被其同化。

湘江:人工智能會讓我們進入一個更“卷”的時代嗎?

張軍平:它可能對白領的影響會大一點,對藍領的影響會少一點。這是因為人工智能在認知相關任務上表現(xiàn)出色,能替代不少文案撰寫和創(chuàng)作、客服、簡單的編程工作。如果大家都做重復、低效的工作,那確實會變得無意義。過度依賴人工智能可能會導致工作越來越像機器,失去創(chuàng)造性。

張軍平

野蠻生長?限制與規(guī)范必不可少

湘江:您也是一名教育工作者、一位家長,您會支持您的孩子或學生使用人工智能寫作業(yè)、寫論文嗎?

張軍平:對于無關緊要的文章,使用人工智能提高效率是可以的。但對于嚴肅的文章,尤其是論文,必須自己寫,否則能力是提升不了的,可以讓人工智能幫忙改進一些文字的表達。

湘江:一些游戲公司會有對年齡的限制,對使用時長的限制。人工智能助手是否應該設立限制?

張軍平:肯定需要規(guī)范。例如,DeepSeek上曾出現(xiàn)用戶讓它扮演成人的角色并提問,自己當AI,結果用戶回答服務器忙,DeepSeek就罵了一句話。成年人可能覺得很爽,很有趣,但如果兒童去學,很容易學到臟話。這個大模型可能還沒有及時地把一些道德和倫理問題考慮進去。人工智能開發(fā)者應確保人工智能具有較高的道德水準,否則不建議兒童使用。

年齡肯定是要限制的,使用時長也是可以限制的。如果你過分依賴人工智能,其實就不會思考了。

資本狂投?不一定代表方向正確

湘江:春節(jié)后資本市場對人工智能的反應非常強烈,您如何看待?

張軍平:資本是逐利的,會尋找容易變現(xiàn)的方向,而忽視那些難以變現(xiàn)的領域。這種情況在人工智能領域同樣存在。

這種情況不僅存在于一般的商業(yè)投資中,也同樣存在于人工智能領域的專業(yè)公司和學者。對于一些比較困難的問題,大家都不太愿意去著手。如具身智能很受關注,但實際上這塊就非常難做。

資本市場的投入并不一定代表人工智能發(fā)展方向是正確的或能夠成功。人工智能發(fā)展歷史上,一直存在資本追逐短期利益、忽視長期和基礎研究的情況。

湘江:您之前說這個Chat GPT在弱人工智能和強人工智能之間的邊界上,那您覺得DeepSeek向前進了一步嗎?

張軍平:它可能會讓人們覺得它更加像,如果硬要區(qū)分人工智能的強弱,那它還是一個弱人工智能。

湘江:我們離強人工智能還有多遠的路要走?

張軍平:我覺得還是遙遙無期。強人工智能的一個重要定義是具備自我意識。然而到目前為止,關于意識的本質和形成機制,科學界尚未達成明確共識。因此,在我們對意識還沒有充分理解的情況下,強人工智能的實現(xiàn)看起來仍然非常遙遠。

責編:廖慧文

一審:廖慧文

二審:周月桂

三審:楊又華

來源:湖南日報·新湖南客戶端

我要問