訂閱
糾錯
加入自媒體

風辭遠的科技茶屋:來自未來的信號槍

2023-07-31 10:13
腦極體
關(guān)注

很久之前,有位朋友問我,現(xiàn)在科技資訊這么發(fā)達了,你們還寫啊寫做什么呢?

我是這么看的。最終能夠凝結(jié)為資訊的那個新聞點,其實是一系列事情最終得出的結(jié)果,而這個結(jié)果又會帶來更多新的結(jié)果。其中這些“得出”與“帶來”的過程,都是藏在資訊之后的,是隱身的、曖昧的。

如果我們僅僅希望知道個大概,對科技內(nèi)容的預期僅僅是三五知己閑談時當個佐料,那么發(fā)達的資訊當然足夠。但如果你希望以科技為學業(yè)、為事業(yè),使之成為自己能夠理解和掌握的能力,那么就需要對科技資訊有一個識別、思辨、預判的過程,這些就是腦極體希望提供給大家的。

人類是具有高效想象力的動物,喜歡基于看到的信號來想象全貌。但信號槍下面到底發(fā)生了什么,將要發(fā)生什么,經(jīng)常會有點復雜,并且跟我們想象的不太一樣。就像諸侯看到狼煙,以為已經(jīng)形勢危急,其實不過是褒姒得到個小禮物。

科技資訊有時候就像是這種信號槍,我們不僅要能看到,還需要甄別和分析。

今天就來選幾個新聞,跟大家聊聊信號槍之下,關(guān)于未來的不確定性。

要滅絕人類的AI,該封殺嗎?

第一條已經(jīng)不算是新聞了,但在當時還挺炸裂的。

5月末,超過350名AI領(lǐng)域的行業(yè)高管、專家和教授簽署了一封公開信,警告AI可能給人類帶來滅絕風險。其實著名者包括括“ChatGPT之父”Open AI首席執(zhí)行官山姆·奧特曼、DeepMind創(chuàng)始人、首席執(zhí)行官戴密斯·哈薩比斯等大佬。

于是就有朋友說了,這些做AI的都說AI要毀滅人類了,咱們還弄他干啥,趕快封殺啊,晚一點《終結(jié)者》和《黑客帝國》就要上演了。

但這事?lián)Q一個角度看,這么多位業(yè)界高管提醒要警惕AI失控,但其中有哪位從我做起,放棄AI事業(yè)了嗎?顯然并沒有。

這種警告在整個AI發(fā)展,乃至科技發(fā)展歷史上其實屢見不鮮。一方面業(yè)內(nèi)人士對可能存在的失控提請社會關(guān)注,是一種分內(nèi)之事。另一方面這也是歐美當前社會氛圍下,符合某某正確的必然表態(tài)。

我們懼怕AI,很大一部分原因都來自科幻文學與電影,但事實上任何產(chǎn)業(yè)失序發(fā)展都可能帶來毀滅性的影響;,能源,工業(yè),甚至娛樂業(yè)都是如此。規(guī)范發(fā)展當然重要,但規(guī)范不意味著封禁,更不意味恐慌。

火是如此的危險,但學會用火是我們?nèi)祟惛鎰e猿猴形態(tài)的標志。

所以,別怕AI。

免費的大模型來了,就問你們怕不怕?

最近幾天還有一個熱議話題,就是Llama 2開源。這件事在AI行業(yè)內(nèi)激起的討論,似乎比行業(yè)外還要大。

其中爭議的邏輯很好理解,就是免費、開源的大模型都出現(xiàn)了,你們花那么多錢做的閉源大模型豈不是要打水漂了?可以觀察到,一些趁著大模型風口,剛剛進入AI行業(yè)或者投資AI項目的朋友對此非常焦慮。

這其實也是個很難成立的說法。從軟件發(fā)展史上看,開源僅僅是一種競爭策略,有的領(lǐng)域合適,有的不合適。不是所有軟件最后都會走向開源,并且開源大模型有大量存在的問題,比如無法適配大量企業(yè)用戶的安全、隱私、自主可控需求。同時,開源會導致算法供應(yīng)商的利潤空間下降,服務(wù)能力打折,從而無法滿足用戶需求。僅僅從深度學習算法興起的這十年來看,主流算法模型也大多是閉源的,

加上開源模型能力普遍不強,因此開源大模型在很長一段時間,都很難給產(chǎn)業(yè)秩序帶來沖擊。具體內(nèi)容,我們在《大模型,開源干不掉閉源》這篇文章中有詳細闡釋。

其實對于剛剛加入這個領(lǐng)域的朋友來說,需要焦慮的不是開源沖擊,而是大模型就像很多基礎(chǔ)軟件一樣,最后必然是去多留少。如何在這個過程里確保自身價值不受損害,才是值得關(guān)注的問題。

馬斯克出手了,歐美互聯(lián)網(wǎng)大洗牌?

這兩天另一個熱議的話題,是馬斯克宣布了自己的超級X計劃。隨著推特改名的步伐加快,各界普遍認為馬斯克要將“新推特”變成“微博+微信”模式的超級終端。

出于對馬斯克搞事能力的信服,很多朋友認為接下來歐美互聯(lián)網(wǎng)即將大洗牌,甚至有可能給中國互聯(lián)網(wǎng)帶來某種程度的影響。

對此我個人是比較謹慎的。如果我們排除馬斯克的個人光環(huán),僅僅來看他參與的項目,會發(fā)現(xiàn)除了特斯拉之外,大多數(shù)項目都進展不快,商業(yè)成果不佳。當然,這也與這些項目普遍過于超前有關(guān)系。而推特的迭代,不僅需要面對來自Meta的近身肉搏,(這里插一句,也不知道兩位CEO的近身肉搏什么時候上演)。更需要面對谷歌、蘋果的壓力。

在歐美互聯(lián)網(wǎng)的超級系統(tǒng)層面,最具有壟斷力的其實不是某個終端,而是多終端卡死底層位置的谷歌。其無所不在的程度連蘋果都難以望其項背。

有理由相信,在馬斯克本人巨大的流量和號召力,新推特會得到劇烈的短期增長。但長期競爭卻很可能是“超級X”不太擅長的。

當然,新推特必然會納入更多xAI帶來的智能化能力,這個點是非常具有想象力,也是很可能成為中國科技界下一輪抄作業(yè)目標的。

GPT-4變笨了,AI還行嗎?

最近AI還有一個不算利好的消息,就說GPT-4變笨了。

7月20日, 斯坦福大學和加州大學伯克利分校的研究團隊提出,對比3月和6月的GPT-4版本,發(fā)現(xiàn)其在數(shù)學問題、代碼生成、視覺推理任務(wù)上都有下降。

很快,openAI就在博客上回復了這個觀點,表示雖然大多數(shù)指標都有所改善,但GPT-4在某些任務(wù)上可能表現(xiàn)會更差。

于是又有很多聲音出現(xiàn),一部分覺得扛旗的GPT-4都不行了,AI是不是沒勁了?另一部分聲音傾向陰謀論,認為這是openAI故意的。

我們當然不知道這個現(xiàn)象背后的真實問題在哪,但可以討論一個相對積極的方向。就是GPT本身是基于反饋再優(yōu)化的模型機制,因此當回饋量下降,尤其是高質(zhì)量回饋缺乏之后,其本身是可能能力變差的。

而走向這個方向的原因,或許是因為openAI越來越復雜、嚴苛的使用策略,以及越來越多的優(yōu)質(zhì)大模型正式開放,分流了聚焦在GPT上的流量。

有教師朋友跟我說,第一名分數(shù)領(lǐng)先太大,其實對整個班級的學習并不好。一個AI變笨了,說不定意味著全班AI普遍變聰明了?

妙鴨相機火了,該All in證件照嗎?

回到國內(nèi),值得欣喜的事情是終于有AI應(yīng)用火起來了。妙鴨相機在短時間內(nèi)聚集了極大關(guān)注,當然也引發(fā)了一系列討論。

這些討論中,我們感覺最沒必要的一種,是認為AI的價值體現(xiàn)在證件照上非常明顯,所以咱們現(xiàn)在感覺投入,去革海馬體的命吧。

這屬于標準的只見樹木,不見森林,稍微動腦想象就會發(fā)現(xiàn),大模型能夠帶來的應(yīng)用變革數(shù)不勝數(shù),生成寫真證件照僅僅是其中微小的一個。

與其看到了證件照,就趕緊all in,不如去想象大模型的底層邏輯、應(yīng)用成本、商業(yè)模式,然后去發(fā)現(xiàn)發(fā)現(xiàn)還有哪些類似的需求可以填補。

大模型原生應(yīng)用,是這一輪AI風口能帶來的最大想象力,可別輕信忽悠,把大好機會黏在了一張證件照上。

總之,各種信息背后,充斥著諸多來自未來的不確定性。我們需要長久地審視,千萬別把一時當金科,把熱鬧當玉律。

見其所見,知其略知,達所未達,是我們混跡智能時代的最佳狀態(tài)。

       原文標題 : 風辭遠的科技茶屋:來自未來的信號槍

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

人工智能 獵頭職位 更多
掃碼關(guān)注公眾號
OFweek人工智能網(wǎng)
獲取更多精彩內(nèi)容
文章糾錯
x
*文字標題:
*糾錯內(nèi)容:
聯(lián)系郵箱:
*驗 證 碼:

粵公網(wǎng)安備 44030502002758號