Google Cloud menawarkan berbagai produk dan alat untuk siklus proses lengkap dalam membangun aplikasi AI generatif.

AI Generatif di Vertex AI

Akses model AI generatif besar dari Google sehingga Anda dapat menguji, menyesuaikan, dan men-deploy-nya untuk digunakan dalam aplikasi yang didukung AI.

Panduan Memulai Gemini

Lihat cara mengirim permintaan ke Gemini API melalui platform AI-ML Google Cloud, Vertex AI.

Memilih infrastruktur untuk aplikasi AI generatif Anda

Pilih produk dan alat terbaik untuk kasus penggunaan Anda dan akses dokumentasi yang diperlukan untuk memulai.

Kapan harus menggunakan AI generatif

Identifikasi apakah AI generatif, AI tradisional, atau kombinasi keduanya mungkin sesuai dengan kasus penggunaan bisnis Anda.

Mengembangkan aplikasi AI generatif

Pelajari cara mengatasi tantangan di setiap tahap pengembangan aplikasi AI generatif.

Contoh kode dan aplikasi contoh

Lihat contoh kode untuk kasus penggunaan populer dan deploy contoh aplikasi AI generatif yang aman, efisien, tangguh, berperforma tinggi, dan hemat biaya.

Glosarium AI Generatif

Pelajari istilah tertentu yang terkait dengan AI generatif.

Model Google di Vertex AI (Gemini, Imagen)

Temukan, uji, sesuaikan, dan deploy model dan aset Google dari library model ML.

Model lain di Model Garden Vertex AI

Temukan, uji, sesuaikan, dan deploy model dan aset OSS tertentu dari library model ML.

Model pembuatan teks melalui HuggingFace

Pelajari cara men-deploy model pembuatan teks HuggingFace ke Vertex AI atau Google Kubernetes Engine (GKE).

Orkestrasi AI/ML di GKE

GKE secara efisien mengatur beban kerja AI/ML, mendukung GPU dan TPU untuk pelatihan dan penayangan AI generatif yang skalabel.

GPU di Compute Engine

Pasang GPU ke instance VM untuk mempercepat beban kerja AI generatif di Compute Engine.

Vertex AI Studio

Desain, uji, dan sesuaikan perintah yang dikirim ke model bahasa besar (LLM) Gemini dan PaLM 2 Google.

Ringkasan Strategi Perintah

Pelajari alur kerja rekayasa perintah dan strategi umum yang dapat Anda gunakan untuk memengaruhi respons model.
Lihat contoh perintah dan respons untuk kasus penggunaan tertentu.

Pembumian Vertex AI

Anda dapat menghubungkan model Vertex AI dengan Google Penelusuran atau dengan data Anda sendiri yang disimpan di Vertex AI Search.
Gunakan Grounding dengan Google Penelusuran untuk menghubungkan model ke pengetahuan terbaru yang tersedia di internet.

Embedding vektor di AlloyDB

Gunakan AlloyDB untuk membuat dan menyimpan penyematan vektor, lalu mengindeks dan membuat kueri penyematan menggunakan ekstensi pgvector.

Cloud SQL dan pgvector

Simpan penyematan vektor di Postgres SQL, lalu indeks dan buat kueri penyematan menggunakan ekstensi pgvector.

Mengintegrasikan data BigQuery ke dalam aplikasi LangChain Anda

Gunakan LangChain untuk mengekstrak data dari BigQuery serta memperkaya dan mendasarkan respons model Anda.

Embedding vektor di Firestore

Buat embedding vektor dari data Firestore Anda, lalu buat indeks dan buat kueri pada embedding.

Embedding vektor di Memorystore (Redis)

Gunakan LangChain untuk mengekstrak data dari Memorystore serta memperkaya dan melandasi respons model Anda.

Aplikasi AI

Manfaatkan model dasar, keahlian penelusuran, dan teknologi AI percakapan Google untuk aplikasi AI generatif tingkat perusahaan.

Pemanggilan Fungsi Vertex AI

Tambahkan panggilan fungsi ke model Anda untuk mengaktifkan tindakan seperti membuat reservasi berdasarkan informasi kalender yang diekstrak.

Mengevaluasi model di Vertex AI

Mengevaluasi performa model dasar dan model AI generatif yang telah disesuaikan di Vertex AI.

Menyesuaikan model Vertex AI

Model dasar tujuan umum dapat memanfaatkan penyesuaian untuk meningkatkan performanya pada tugas tertentu.

Cloud TPU

TPU adalah ASIC yang dikembangkan khusus dari Google dan digunakan untuk mempercepat workload machine learning, seperti melatih LLM.