隨著谷歌將其新的人工智慧聊天機器人 Bard 擴展到其產品中,人們對這項技術能力的懷疑正在幕後浮現。
最近洩漏的參與巴德開發的Google員工之間的對話揭示了公司內部對聊天機器人的有效性以及所需的大量投資是否得到回報的不確定性。
彭博社最先報道的這一消息引發了有關巴德面臨的挑戰的新問題。
我們的報告探討了巴德創始人對巴德的私人批評,以及這對聊天機器人的未來意味著什麼。
谷歌員工質疑巴德的效率
在僅限受邀者參加的 Discord 聊天中,Google 產品經理、設計師和工程師爭論了 Bard 所需的資源是否值得。
「我的經驗法則是不要相信LLM [large language model] 巴德的高級產品經理 Dominik Rabiej 在 7 月表示,“除非我能夠獨立驗證它,否則我不會輸出任何結果。我很想達到可以做到的程度,但目前還沒有。”
8 月份,巴德用戶體驗主管 Cathy Pearl 等人對此類人工智慧系統的實用價值提出了質疑。 “如何真正發揮作用。有待確定!” 她說
將 Bard 整合到 Google 生態系統是否太快?
谷歌在三月推出了 Bard,作為 OpenAI 流行的聊天機器人 ChatGPT 的競爭對手。
該公司在接下來的幾個月中增加了新功能,例如分析圖像和以多種語言回應。
上個月,谷歌宣布了迄今為止最大規模的擴張,將 Bard 與 Gmail、地圖和 YouTube 等產品連接起來。 然而,此次發布因巴德提供虛假資訊和危險建議的投訴而受到損害。
在大擴展的同一天,Google添加了一個搜尋按鈕,以便用戶可以檢查巴德的答案。
國內外的批評者指責谷歌急於追趕競爭對手,卻忽略了道德問題,包括對待培訓巴德的低薪承包商的方式。
確保巴德的成功對Google來說至關重要。 其核心搜尋業務約佔母公司 Alphabet 收入的 80%,但人工智慧聊天機器人的崛起可能會破壞其主導地位。
巴德的未來
巴德的坦誠討論為了解技術建構者的想法提供了獨特的見解。
儘管許多用戶都在大力推廣巴德的功能,但Google員工卻澄清了其限制。
Rabiej 最近表示:「Bard 與任何出色的語言模型一樣,具有生成性:它不是尋找事物並總結它們,而是生成文本。」他強調了驗證答案的必要性。
其他人則對巴德的開發成本、傳播錯誤訊息的可能性以及該項目的大量計算需求表示擔憂。
谷歌在給彭博社的聲明中表示,爭論巴德的優缺點是根據用戶回饋改進產品的常規部分。
這對巴德用戶意味著什麼?
Bard Discord 私人聊天揭露對使用 Google 人工智慧聊天機器人的企業和行銷人員有幾個影響:
當心
互相建議不要相信巴德結果的谷歌員工建議行銷人員也應該謹慎行事並驗證該工具提供的任何資訊。
氣質期望
Google 團隊對 Bard 的實用性表示懷疑,這表明它可能不是某些人所希望的神奇行銷解決方案。 行銷人員必須調整對巴德產生創意、創建內容和自動化任務能力的期望。
請繼續關注改進
谷歌似乎致力於隨著時間的推移改進巴德。 隨著團隊致力於減少幻覺並提高準確性,該產品可能對行銷人員更有利。 但尚不清楚這需要多長時間。
監控限制
隨著巴德的能力更廣泛地推廣,可能會出現新的限制。 行銷人員應該注意廣告,以了解某些用例是否受到限制。
總結
這些啟示清楚地表明,行銷團隊目前應採取謹慎和謹慎的方法將巴德整合到他們的工作流程中。
隨著谷歌改進人工智慧,它可以變得更加通用和可靠。 但同時,有必要保持健康的懷疑。
特色圖片:T. Schneider/Shutterstock