Ringkasan AI generatif
Google Cloud menawarkan berbagai produk dan alat untuk siklus proses lengkap dalam membangun aplikasi AI generatif.
AI Generatif di Vertex AI
Akses model AI generatif besar dari Google sehingga Anda dapat menguji, menyesuaikan, dan men-deploy-nya untuk digunakan dalam aplikasi yang didukung AI.
Panduan Memulai Gemini
Lihat cara mengirim permintaan ke Gemini API melalui platform AI-ML Google Cloud, Vertex AI.
Memilih infrastruktur untuk aplikasi AI generatif Anda
Pilih produk dan alat terbaik untuk kasus penggunaan Anda dan akses dokumentasi yang diperlukan untuk memulai.
Kapan harus menggunakan AI generatif
Identifikasi apakah AI generatif, AI tradisional, atau kombinasi keduanya mungkin sesuai dengan kasus penggunaan bisnis Anda.
Mengembangkan aplikasi AI generatif
Pelajari cara mengatasi tantangan di setiap tahap pengembangan aplikasi AI generatif.
Contoh kode dan aplikasi contoh
Lihat contoh kode untuk kasus penggunaan populer dan deploy contoh aplikasi AI generatif yang aman, efisien, tangguh, berperforma tinggi, dan hemat biaya.
Glosarium AI Generatif
Pelajari istilah tertentu yang terkait dengan AI generatif.
Model Google di Vertex AI (Gemini, Imagen)
Temukan, uji, sesuaikan, dan deploy model dan aset Google dari library model ML.
Model lain di Model Garden Vertex AI
Temukan, uji, sesuaikan, dan deploy model dan aset OSS tertentu dari library model ML.
Model pembuatan teks melalui HuggingFace
Pelajari cara men-deploy model pembuatan teks HuggingFace ke Vertex AI atau Google Kubernetes Engine (GKE).
Orkestrasi AI/ML di GKE
GKE secara efisien mengatur beban kerja AI/ML, mendukung GPU dan TPU untuk pelatihan dan penayangan AI generatif yang skalabel.
GPU di Compute Engine
Pasang GPU ke instance VM untuk mempercepat beban kerja AI generatif di Compute Engine.
Vertex AI Studio
Desain, uji, dan sesuaikan perintah yang dikirim ke model bahasa besar (LLM) Gemini dan PaLM 2 Google.
Ringkasan Strategi Perintah
Pelajari alur kerja rekayasa perintah dan strategi umum yang dapat Anda gunakan untuk memengaruhi respons model.
Prompt Gallery
Lihat contoh perintah dan respons untuk kasus penggunaan tertentu.
Pembumian Vertex AI
Anda dapat menghubungkan model Vertex AI dengan Google Penelusuran atau dengan data Anda sendiri yang disimpan di Vertex AI Search.
Grounding dengan Google Penelusuran
Gunakan Grounding dengan Google Penelusuran untuk menghubungkan model ke pengetahuan terbaru yang tersedia di internet.
Embedding vektor di AlloyDB
Gunakan AlloyDB untuk membuat dan menyimpan penyematan vektor, lalu mengindeks dan membuat kueri penyematan menggunakan ekstensi pgvector.
Cloud SQL dan pgvector
Simpan penyematan vektor di Postgres SQL, lalu indeks dan buat kueri penyematan menggunakan ekstensi pgvector.
Mengintegrasikan data BigQuery ke dalam aplikasi LangChain Anda
Gunakan LangChain untuk mengekstrak data dari BigQuery serta memperkaya dan mendasarkan respons model Anda.
Embedding vektor di Firestore
Buat embedding vektor dari data Firestore Anda, lalu buat indeks dan buat kueri pada embedding.
Embedding vektor di Memorystore (Redis)
Gunakan LangChain untuk mengekstrak data dari Memorystore serta memperkaya dan melandasi respons model Anda.
Aplikasi AI
Manfaatkan model dasar, keahlian penelusuran, dan teknologi AI percakapan Google untuk aplikasi AI generatif tingkat perusahaan.
Pemanggilan Fungsi Vertex AI
Tambahkan panggilan fungsi ke model Anda untuk mengaktifkan tindakan seperti membuat reservasi berdasarkan informasi kalender yang diekstrak.
Mengevaluasi model di Vertex AI
Mengevaluasi performa model dasar dan model AI generatif yang telah disesuaikan di Vertex AI.
Menyesuaikan model Vertex AI
Model dasar tujuan umum dapat memanfaatkan penyesuaian untuk meningkatkan performanya pada tugas tertentu.
Cloud TPU
TPU adalah ASIC yang dikembangkan khusus dari Google dan digunakan untuk mempercepat workload machine learning, seperti melatih LLM.