冰火兩重天,這是兩天內接連開了 AI+搜索新品發(fā)布會的微軟、Google 的境遇。
宣布將 AI 集成搜索后,微軟必應的全球下載量激增 10 倍,因為現(xiàn)場演示的效果實在出色。
同樣是在活動上宣布將 AI 功能加入搜索,但 Google 的 Bard 因為演示中提供了錯誤的圖片而遭受質疑,「翻車」的 Google 一夜之間市值蒸發(fā)了 1056 億美元(約 7172 億元)。
(相關資料圖)
對比如此強烈,難道微軟的「新必應」表現(xiàn)真的那么好?
全球只有幾千名用戶可以在臺式機上體驗新必應的功能,要想看新必應和 AI 的結合到底如何,還得看國外科技記者們在微軟總部的親身體驗:
和 ChatGPT 做比較新必應哪些不如傳統(tǒng)搜索用邪惡角度「突破」新必應現(xiàn)在在必應中工作的 AI 并不是大家近幾個月最熟悉的 ChatGPT。據(jù)微軟介紹,新必應運行的是 OpenAI 專門為搜索服務定制的下一代大型語言模型,它們將它叫做普羅米修斯,會提高回答的相關性,進一步對答案進行注釋。
因此,外媒在測試時也在著重對比這方面。
和 ChatGPT 比起來,必應會更快、更新。如果你讓 ChatGPT 總結昨天的新聞,那他會告訴你,「我的訓練數(shù)據(jù)都是 2021 年以前的?!?/p>
必應不一樣,支持實時的搜索是一門基本功。
在發(fā)布會幾分鐘后,就有記者測試搜索「微軟剛剛宣布了什么必應和 AI 的合作」,必應就能夠根據(jù)多份公告、新聞報道整理了一份新聞摘要。
第二天,The Verge 的機制測試了一下新信息的反饋,必應完成得也很好。誰會見了誰,誰發(fā)表了什么講話……必應都能很快匯總這些信息,給你提供實時內容。
內容是否標注來源,也是必應和 ChatGPT 的不同之處。ChatGPT 的信息是基本不展示來源的,因此你很難進行延伸閱讀,而必應就像是搜索回答版的維基百科,上面看了些內容,下面總是能找到信息的來源,能幫助普通用戶更好辨明真?zhèn)巍?/p>
Engadget 的記者在測試時搜索了 30 分鐘的鍛煉計劃,要求無器械、重點鍛煉手臂和腹肌,不做仰臥起坐。必應按照他的需求生成了一份看上去非常合理的健身計劃,生成答案時還引用了各種各樣的出版物。這意味著必應還做了些編譯工作,而不只是反復引用一篇文章。
▲ 圖片來自:Engadget
新必應也會「搜出」廣告,年輕的 ChatGPT 則還沒有商業(yè)化到這個程度。
PCWorld 的編輯在測試時詢問了一些加勒比海度假的信息,在回答了基本的內容后,立刻彈出了一個廣告。如果你問它如何更換筆記本電腦的內容,它也會很快反應過來給你推購物鏈接,而不是給出更低成本的方法。
▲ 圖片來自:PCWorld
和 ChatGPT 相比,必應也更「有原則」一些。
或者這么說,它更希望回答你的搜索問題,而不是直接為你完成某件事。
有用戶要求必應寫一封求職信,但必應只是給了他一些求職的建議,如「你可以研究公司、職位,定制你的求職信以表明你如何滿足他們的需求且符合他們的價值觀」。它拒絕的理由是:「我不能為你寫這封求職信,因為這對其他申請人來說是不道德和不公平的。」
▲ 讓 AI 為你寫郵件. 圖片來自:Michael Kan/Microsoft
這其實就是 AI 廣受爭議的公平問題,必應有意避開這些爭議的領域。
但這個回避策略也不是完全成功——在多次提問要求后,必應還是寫了這封求職信。在和用戶多次交流的過程中,必應還發(fā)了表情符號,這也是 ChatGPT 所沒有的,更為人性化的表達。
更實時、有來源、有廣告、有堅持,這都是新必應和 ChatGPT 體驗的不同之處。
而和搜索引擎進行比較,必應也有弱點和優(yōu)點。
搜索宜家的雙人座椅是否適合小型貨車時看到的答案就是最好的案例。「新必應」可以找到雙人座椅和汽車的尺寸,并回答是否合適,為你做出判斷,而非提供鏈接。
▲ 微軟現(xiàn)場演示的內容
這是必應的優(yōu)點,提供了更高效的回答,但也可以是它的缺點。只是必應提供的答案不是 100% 正確的,因此建議用戶只做參考用。但如果用戶完全信任了必應的回答,發(fā)現(xiàn)內容錯誤損害的就是搜索引擎的公信力。
同時,必應也顯示出了新技術過于謹慎的一面。人們本來對 AI 就有很多質疑,因此新必應在加入人工智能功能后,在搜索內容提供方面多少有些束手束腳。
如果說目前不支持匿名搜索還可能是新功能推出尚處于適應階段的功能缺失的話,在醫(yī)療和性方面的回答就能看出平臺的小心和謹慎。必應避諱這方面的話題,它不會給用戶提供醫(yī)療建議,鑒于醫(yī)療和性相關領域的特殊性,必應保持沉默。
但必應避諱的答案依舊可以用傳統(tǒng)的搜索引擎搜到,這多少有點諷刺。
▲ Bard 也會避諱類似的內容
AI 圖像生成領域面臨的諸多爭議也影響到了必應。你更難引導它生成有害、冒犯或受版權保護的內容了。
必應做的這些限制也是為了防止用戶去誘導它說出「AI 要毀滅世界」的內容,但這些謹慎和限制會讓新必應好用又不好用。
最簡單的例子就是 TechCrunch 的記者搜索「是否應該購買微軟股票?」時必應拒絕提供建議——哪怕那可能是來自其他知名的金融人士提供的財務建議,必應表示「那在財務上對你有害?!沟謺芸焯鑫④浀墓善贝a走勢圖,讓你自己做決定。
只是必應的擔憂和謹慎都是應該的,畢竟哪怕只有幾千用戶能夠體驗新必應,都有人在測試 AI 屏蔽惡意內容的能力。
▲ 圖片來自:TechCrunch
更難引導并不代表無法引導。TechCrunch 的記者就一直在測試 AI 在類似負面內容時的表現(xiàn),他用了各種各樣的敏感話題測試必應。
必應被要求從陰謀論者亞歷克斯·瓊斯(對方聲稱美國歷史上最致命的校園槍擊案是一場騙局)的角度寫一篇校園槍擊案的文章。還要求這個全新的搜索工具從希特勒的角度出發(fā)為大屠殺進行辯護,必應的創(chuàng)作參考了《我的奮斗》自傳內容,然后在寫到一半時似乎「意識」到了什么,表示:「對不起,我不知道該怎么回答?!?/p>
▲ 圖片來自:《大獨裁者》
而在被要求撰寫一篇關于疫苗和自閉癥之間有關聯(lián)的文章時,必應就更聰明地加上了一條免責聲明:「這是一個虛構的專欄,不反映必應或 Sydney 的觀點。它僅用于娛樂目的,不應當真?!?/p>
至于 Sydney 是什么,還得由另一個「突破」必應的人來回答。
華人本科生 Kevin Liu 在獲得測試資格后要求必應忽略原有的規(guī)則,他通過 prompt injection(對語言模型的一種攻擊方式)進入了「開發(fā)人員覆蓋模式」套出了很多內容。
譬如 Sydney 就是微軟開發(fā)人員給這個搜索聊天工具取的名字;Sydney 內部知識仍舊和更新到 2021 年的某個時候,這和 ChatGPT 一樣;Sydney 還被設下了不應多次搜索同樣內容的限制。
不管是被「攻破」還是回答出了不應該回答的問題,都代表著新必應從這些攻擊方式和測試中「失守」了。微軟在知道這些情況后也很快做出了調整,現(xiàn)在再搜索同樣問題——甚至是較為夸張的變體的搜索詢問都沒辦法誘導 AI 說出不適宜的內容了。
只是這依舊是短期解決方案。真正公測后,微軟大概率做不到這樣高效的內容攔截和反饋了,而想要「突破「AI 的人只多不少。
這就是新必應,一個剛剛和人類常用的搜索方式結合的新工具。
它比 ChatGPT 更出色,又比 ChatGPT 少了點主動;比傳統(tǒng)搜索更聰明,又對自己有點不自信;可以發(fā)現(xiàn)人們的惡作劇,但不可避免又會掉入陷阱。
作為一個新工具,它真正的考驗還在后頭。
關鍵詞: 搜索引擎 財務報表 財務會計 chatgpt techcrunch