Google強化其云計算數(shù)據(jù)倉庫BigQuery的機器學(xué)習(xí)功能,推出新BigQuery機器學(xué)習(xí)推理引擎,讓用戶可以直接在BigQuery導(dǎo)入外部訓(xùn)練的模型,借由縮短模型與資料之間的距離,加速機器學(xué)習(xí)運算。此外,用戶也能夠?qū)①Y料指向遠程托管在Vertex AI的模型,以更靈活地方式執(zhí)行模型推理任務(wù)。
Google讓用戶無縫地在將資料預(yù)測分析集成至數(shù)據(jù)倉庫中,消除了資料移動帶來的成本和風險,用戶還能使用熟悉的SQL語法來操作各種機器學(xué)習(xí)功能。而BigQuery的無服務(wù)器的特性,使得用戶不需要在執(zhí)行機器學(xué)習(xí)預(yù)測時自己配置基礎(chǔ)設(shè)施。
過去,用戶在BigQuery中導(dǎo)入機器學(xué)習(xí)模型的功能僅限TensorFlow模型。但Google現(xiàn)已擴展支持的模型格式,添加加TensorFlow Lite、XGBoost和ONNX。如此一來,用戶便能夠?qū)yTorch和scikit-learn等常用框架轉(zhuǎn)換成ONNX,并將其導(dǎo)入到BigQuery中。現(xiàn)在用戶可以在BigQuery使用在其他地方訓(xùn)練的模型,而不需要移動資料,BigQuery的分布式推理引擎能夠批次執(zhí)行推理工作,以提高推理執(zhí)行性能。
對于一些需要特殊基礎(chǔ)設(shè)施,以處理低延遲請求和大量參數(shù)的模型,用戶可以選擇將模型托管在機器學(xué)習(xí)平臺Vertex AI端點,以獲得GPU運算加速,Vertex AI也提供預(yù)構(gòu)建容器、自定義容器等服務(wù)。用戶現(xiàn)在可以選擇直接從BigQuery內(nèi)部,遠程使用這些位于Vertex AI的模型進行推理。BigQuery會將資料送向遠程Vertex AI進行推理,待推理完畢后的結(jié)果再送回BigQuery。
BigQuery機器學(xué)習(xí)遠程模型推理,也支持圖像等非結(jié)構(gòu)化資料,用戶可以使用Vertex AI上的圖像、文本理解和翻譯預(yù)訓(xùn)練模型進行推理。在BigQuery機器學(xué)習(xí)推理引擎中,這些模型可以使用特殊的預(yù)測函數(shù),將文本和圖像當作輸入,并結(jié)果以JSON資料類型輸出。