自從生成式 AI 興起,今年廠商都紛紛推出產品和服務。聯想提出「 AI for All 」策略,將 AI 引入旗下的消費者產品及服務,包括個人 AI 分身(AI Twin)、 AI 電腦和 AI 專業服務等。核心技術將基礎大型語言模型( LLM )結合個人或企業數據,建立 AI 分身。聯想聯同業界夥伴,包括 NVIDIA 、 AMD 等共同提供「從口袋到雲端」的 AI 運算能力。
聯想在美國柯士甸舉行 Tech World 大會,由集團董事長兼行政總裁楊元慶介紹最新「 AI for All 」策略。楊元慶說,用戶受 ChatGPT 所啟發認識生成式 AI 技術,並開始探討更深層次的用途。用戶希望擁有大型語言模型的生成能力,也要求私隱和個人化生成內容。聯想為個人和企業建立相應的 AI 分身,將大型語言模型結合個人數據或企業的知識庫,以個人 AI 分身為例,用上 AI 模型壓縮技術在用戶的智能設備上運行。而企業 AI 分身則用上內部數據,由聯想伺服器組成的基建執行。
「 AI for All 」運用從智能電話、個人電腦,以至企業混合雲和邊緣設備,提供足夠運算能力,執行各類人工智能應用程式,既有用戶體驗,也解決不同行業的業務問題。
聯想即時示範由基礎模型與 AI 分身生成內容的分別,在啟動飛行模式的智能電話叫個人 AI 分身建議旅遊行程,證明將 LLM 壓縮能在個人設備上運行。 AI 分身根據用戶的資料、喜好、過往經歷,生成相關資料,包括所選乘的航空公司、入住的酒店、食肆等。這些行程跟一般生成式 AI 所得的標準結果有明顯差異。楊元慶強調, AI 分身跟現時大行其道的智能助理不同,前者只會按用戶和企業的要求收集數據,除非用戶授權,否則其數據不會被共享或傳送至公共雲。
聯想集團技術總監芮勇進一步解釋,過往的 AI 模型只能為指定任務而建, LLM 雖然改變技術,仍未能切合企業所用。例如 ChatGPT 能夠回答的問題,只限於公開的資料。企業自行建立 LLM 亦不符合成本效益。將標準的基礎模型結合企業數據庫,能夠生成合適可用的內容。「要對數據安全有更好的保障,應避免詢問公開的 LLM ,因提示詞( prompt )往往成為模型的數據,洩露個人私隱或企業敏感資料。混合模型能讓銀行、醫療等具有敏感數據的行業都可擁有生成式 AI 能力。」
芮勇稱,通過基礎模型配合新興的向量數據庫( vector database )搜尋企業內的數據,並引入至現有的企業方案,如 ERP 、 CRM 等,運用生成式 AI 幫助加快日常營運。
聯想基建方案業務全球 HPC 及 AI 副總裁 Scott Tease 稱,現時無意自行建立基礎模型,會用上業界已開發的技術,如開源大型語言模型或購買授權,以此作基礎結合客戶的數據建立 AI 分身,用於生成個人化的內容,甚至可以離線使用。企業不只用 LLM 生成文字,還會有影像、音樂,需要用上不同的 LLM 結合企業數據支援。
今年 F1 美國賽站,聯想展示由 AI 驅動的虛擬人物回答關於 F1 的問題。 Scott Tease 稱,除了理解和回答問題用上 LLM ,還有人物的聲音、表情、動作等細節,都涉及傳統 AI 和生成式 AI 。