Web AI:下一代 Web 應用的新模型、工具、API

大家好,我是 ConardLi

AI 時代,和我們前端開發結合最緊密的就是當下炒的非常火熱的 Web AI 技術了。

今天跟大家一起來聊聊本屆 Google I/O 開發者大會上關於 Web AI 的主題分享:《Web AI: On-device machine learning models and tools for your next project

傳統上,人工智能和機器學習模型的計算任務大多在服務器上進行,需要通過雲服務進行數據處理和計算。這種方式雖然功能強大,但存在延遲、隱私和成本等問題。而 Web AI 的概念是讓這些計算任務直接在用戶的設備上、通過瀏覽器來完成,這主要得益於現代 Web 技術的進步,如 WebAssemblyWebGPU 等技術的支持。這樣,用戶可以在不與外部服務器交互的情況下,即時獲得 AI 服務,這無疑提升了用戶體驗,同時也爲用戶隱私提供了更強的保護。

Web AI 可以說是一組技術和技巧,用於在設備的 CPUGPU 上在 Web 瀏覽器中客戶端使用機器學習(ML)模型。所以我們可以使用 JavaScript 和其他 Web 技術構建,例如 WebAssemblyWebGPU

需要注意的是,Web AI 與服 Server AICloud AI 明顯不同,後者是模型在服務器上執行並通過 API 訪問的方式。

在本次分享中,主要包括了下面三個方面

瀏覽器中的 LLM

谷歌的 Gemma Web 是一個新的開放模型,可以在用戶設備的瀏覽器中運行,它是基於用來創建 Gemini 的相同研究和技術構建的。

通過在設備上使用 LLM ,與在雲服務器上進行推斷相比,可以顯著的節省成本,同時還能增強用戶隱私並減少延遲。瀏覽器中的生成式人工智能仍處於早期階段,但隨着硬件的不斷髮展(具有更高的 CPUGPU 內存),我們預計會有更多的模型可用。

企業、和開發者們都可以重塑我們在網頁開發上的想象力,尤其是對於特定於任務的用例,可以調整較小 LLM280 億參數)的權重以在消費硬件上運行。

Gemma2B 現在可以在 Kaggle Models 上直接下載,格式與我們的 Web LLM 推理 API 兼容。其他受支持的架構包括 Microsoft Phi-2、Falcon RW1BStable LM3B ,大家可以使 Google 提供的的轉換器庫將其轉換爲運行時可以使用的格式。

https://goo.gle/Gemma2b

使用 Visual Blocks 更快地進行原型設計

Visual Blocks(簡稱 Vblocks)是一種基於節點圖編輯器的創新機器學習原型工具。它爲開發者和決策者在使用機器學習時提供了合作平臺,使用戶能夠專注於解決實際問題,而無需對代碼複雜性和技術障礙感到困擾。

Vblocks 的所有關鍵特性都被包裝在一個節點圖編輯器中。用戶可以通過簡單的拖拽操作將不同的節點相連接,快速搭建起端到端的原型。在拖拽過程中,系統會自動建議可以連接的有效節點,進一步提升了開發效率。

Google 在 2024 年與知名的開源機器學習社區 Hugging Face 合作,他們爲 Visual Blocks 創建了 16 個全新的自定義節點。這將 Transformers.js 和更廣泛的 Hugging Face 生態系統引入了 Visual Blocks

其中八個新節點完全運行在瀏覽器客戶端,使用 Web AI,包括:

此外,Hugging Face 還提供 7 個服務器端 ML 任務,可讓我們在 Visual Blocks 中使用 API 運行數千個模型。

查看模型集合:https://huggingface.co/hf-vb

另一個重大的更新是 Vblocks 現在支持定製節點。這意味着我們可以使用標準的 JavaScript Web 組件來創建適應特定需求的新節點。不論是自定義客戶端邏輯還是調用遠程服務器上的第三方 Web API,都可以輕鬆集成進 Vblocks

通過 Chrome 大規模使用 JavaScript 實現 Web AI

在之前的實例中,例如 Gemma,模型在網頁本身內加載並運行。Chrome 正在開發內置的設備人工智能,我們可以使用標準化的、特定於任務的 JavaScript API 訪問模型。

這還不是全部, Chroe 還更新了 WebGPU,支持 16 位浮點值。

WebAssembly 有一個新提案 Memory64,支持 64 位內存索引,這將允許我們加載比以前更大的 AI 模型。

使用 headless Chrome 測試 Web AI 模型

我們現在可以使用 Headless Chrome 測試客戶端 AI(或任何需要 WebGLWebGPU 支持的應用程序),同時利用服務器端 GPU(例如 NVIDIA T4P100)進行加速了。

瞭解詳情可以看:https://developer.chrome.com/docs/web-platform/webgpu/colab-headless

參考:《Web AI: On-device machine learning models and tools for your next project》:https://www.youtube.com/watch?v=PJm8WNajZtw

本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源https://mp.weixin.qq.com/s/i3ZL-1yvFqTTfwRAsIOVPg