生成式 AI

說明文件和資源,用於使用 Google Cloud 工具和產品建構及實作生成式 AI 應用程式。

  • 取得 Gemini 2.0 Flash Thinking 的存取權
  • 每月免費使用 AI API 和 BigQuery 等熱門產品
  • 不會自動收費,也不會要求您一定要購買特定方案

繼續探索超過 20 項一律免費的產品

使用超過 20 項實用的免費產品,包括 AI API、VM 和 data warehouse 等。

瞭解如何建構生成式 AI 應用程式

存取 Google 的大型生成式 AI 模型,以便測試、調整及部署這些模型,然後在 AI 技術輔助應用程式中使用。
瞭解如何透過 Google Cloud 的 AI/機器學習平台 Vertex AI,向 Gemini API 傳送要求。
運用 GKE 的強大功能,打造可自訂的 AI/機器學習平台,以具成本效益的方式提供高效能服務和訓練,並享有業界領先的規模和彈性基礎架構選項。
判斷生成式 AI、傳統 AI 或兩者兼具是否適合您的業務用途。
瞭解如何在開發生成式 AI 應用程式的各個階段,解決相關挑戰。
查看熱門應用實例的程式碼範例,並部署安全、有效率、具備復原能力、高效能且經濟實惠的生成式 AI 應用程式範例。
瞭解與生成式 AI 相關的特定字詞。

生成式 AI 工具

生成式 AI 工具清單,包括 Cloud Console 中列出的 Vertex AI Studio、Colab Enterprise/Notebooks 和 Workbench,以及列為獨立項目的 SDK/API。

生成式 AI 開發流程

這張圖表顯示生成式 AI 的開發流程,共分為六個階段:模型選取 (包括 Model Garden)、提示工程 (包括提示庫、Vertex AI Studio、比較提示和最佳化提示)、微調 (包括訓練和微調)、最佳化 (包括蒸餾)、部署 (包括模型登錄、線上預測和批次預測),以及監控。模型選取、提示詞工程、微調和最佳化階段,都屬於標示為「評估」的迴圈子週期。

模型探索與代管

Google Cloud 透過 Vertex AI 提供一系列最先進的基礎模型,包括 Gemini。您也可以將第三方模型部署至 Vertex AI Model Garden,或在 GKE 或 Compute Engine 上自行代管。

從機器學習模型程式庫探索、測試、自訂及部署 Google 模型和資產。
從機器學習模型庫中,探索、測試、自訂及部署所選的開放原始碼模型和資產。
瞭解如何將 HuggingFace 文字生成模型部署至 Vertex AI 或 Google Kubernetes Engine (GKE)。
將 GPU 附加至 VM 執行個體,加速處理 Compute Engine 上的生成式 AI 工作負載。

提示設計和工程

提示設計是指撰寫提示和回覆配對,為語言模型提供額外情境和指示的程序。撰寫提示後,請將提示做為提示資料集提供給模型,進行預先訓練。模型提供預測時,會根據內建的指令做出回應。

設計、測試及自訂提示,然後傳送給 Google 的 Gemini 和 PaLM 2 大型語言模型 (LLM)。
瞭解提示工程工作流程和常見策略,以便影響模型回覆。
查看特定用途的提示和回覆範例。

基準建立和 RAG

建立基準可將 AI 模型連結至資料來源,提高回覆的準確度並減少幻覺。RAG 是一種常見的基礎技術,會搜尋相關資訊並加入模型的提示,確保輸出內容以事實和最新資訊為依據。

您可以透過 Google 搜尋或儲存在 Vertex AI Search 中的自有資料,建立 Vertex AI 模型基準。
使用「以 Google 搜尋建立基準」,將模型連結至網路上最新的知識。
使用 AlloyDB 生成及儲存向量嵌入項目,然後使用 pgvector 擴充功能建立索引及查詢嵌入項目。
將向量嵌入項目儲存在 Postgres SQL 中,然後使用 pgvector 擴充功能建立索引及查詢嵌入項目。
使用 LangChain 從 BigQuery 擷取資料,並充實及根據資料提供模型回覆。
從 Firestore 資料建立向量嵌入,然後為嵌入建立索引並查詢。
使用 LangChain 從 Memorystore 擷取資料,並豐富及根據模型的回覆內容。

代理程式和函式呼叫

透過 Agent,您可以輕鬆設計對話式使用者介面,並整合至行動應用程式,而函式呼叫則可擴充模型的功能。

運用 Google 的基礎模型、搜尋專業知識和對話式 AI 技術,打造企業級生成式 AI 應用程式。
在模型中新增函式呼叫功能,即可根據擷取的日曆資訊預訂座位等。

模型自訂和訓練

如果需要執行特定工作 (例如使用特定術語訓練語言模型),可能需要比單純設計提示或基礎模型更多的訓練。在這種情況下,您可以調整模型來提升效能,或是訓練自己的模型。

在 Vertex AI 上評估基礎模型和微調生成式 AI 模型的效能。
調整通用基礎模型,可提升模型在特定工作上的效能。
TPU 是 Google 量身打造的 ASIC,用於加速機器學習工作負載,例如訓練 LLM。

開始建構

LangChain 是生成式 AI 應用程式的開放原始碼架構,可讓您在提示中加入情境,並根據模型的回覆採取行動。