Bergabunglah dengan buletin harian dan mingguan kami untuk mendapatkan pembaruan terbaru dan konten luar biasa tentang liputan terkemuka industri. Pelajari lebih lanjut
Seri Gemini Google AI Model Bahasa Besar (LLM) Dimulai kira -kira hampir setahun yang lalu ketika beberapa gambar memalukan yang menjadi jelekNamun, itu terus membaik, dan tampaknya perusahaan akan melakukan upaya generasi kedua – Gemini 2.0 – yang terbesar dan terbaik untuk konsumen dan perusahaan.
Hari ini perusahaan diterbitkan Rilis umum Gemini 2.0 Flash, Gemini 2.0 Flash-Lite dan Eksperimental Gemini 2.0 Pro Versi.
Model-model ini untuk mendukung pengembang dan bisnis sekarang tersedia melalui Google AI Studio dan Vertex AI, sementara Flash-Lite adalah tinjauan publik dan profesional untuk upaya awal.
“Semua model ini akan memiliki deposit multimodal dengan output dari teks output, dan dalam beberapa bulan mendatang akan ada lebih banyak cara untuk membeli ketersediaan umum,” tulis Coray Kavukcoglu, Chief Technology Officer Google DeepMind, perusahaan perusahaan. Posting Blog Iklan – Tunjukkan keunggulan Google di meja bahkan sebagai pesaing seperti Deepseek Dan Membuka Terus menjalankan pesaing yang kuat.
Google memainkan amplifier multimodalnya
Baik Deepseek R1 maupun Model Openi O3-Mini Baru Dapat menerima pintu masuk multimodal, yaitu, gambar dan unggahan file atau aksesori.
Sementara Deepseek R1 dapat menerimanya di situs web dan programnya untuk percakapan seluler, ia melakukan lebih dari 60 tahun teknologi untuk pengenalan karakter optik (OCR) untuk hanya mengekstrak unggahan ini dari unggahan ini – pada kenyataannya, tanpa memahami atau menganalisis fitur lain apa pun lainnya yang berisi. di dalamnya.
Namun, keduanya adalah kelas baru model “penalaran”, yang secara sadar membutuhkan lebih banyak waktu untuk memikirkan jawaban dan merefleksikan kebenaran “rantai bijaksana” dan jawaban mereka. Ini bertentangan dengan LLM khas seperti seri Gemini 2.0 Pro, sehingga perbandingan antara Gemini 2.0 dan Deepseek R1 dan OpenAI O3 sedikit apel dengan oranye.
Tapi hari ini, Google juga memiliki pengetahuan tentang penalaran: CEO Google Sundar Pichai pindah ke Jejaring Sosial x menyatakan itu Google Gemini Aplikasi seluler iOS dan Android telah diperbarui menggunakan model penalaran yang bersaing Google untuk pemikiran Gemini 2.0 dan bahwa model tersebut dapat dihubungkan ke Google Services Google Maps, YouTube dan Google “mencari dengan mengizinkan bermacam -macam yang sama sekali baru. Studi dan interaksi yang memungkinkan yang tidak dapat direkonsiliasi dengan layanan seperti Deepseek dan Openai.
Saya secara singkat mencoba iPhone Google Gemini iOS iOS, menulis karya ini, dan itu mengesankan berdasarkan kueri awal saya, memikirkan 10 video YouTube paling populer, dan memberi saya meja di dekat kantor dokter dan pembukaan/jam penutupan – itu saja semua dalam hitungan detik.
Gemini 2.0 Flash jatuh ke dalam rilis umum
Model Flash Gemini 2.0, Awalnya dimulai sebagai versi eksperimental pada bulan Desembersekarang siap untuk diproduksi.
Dibuat untuk penerapan AI efisiensi tinggi, ini memberikan sedikit jawaban laten dan mempertahankan penalaran multimoda skala besar.
Salah satu keuntungan utama dari persaingan adalah jendela konteksnya atau jumlah chip yang dapat ditambahkan pengguna dalam bentuk panggilan dan kembali ke satu interaksi ke depan dengan chatbot yang digerakkan LLM atau antarmuka pemrograman program.
Sementara banyak model terkemuka seperti Openai O3-Mini yang baru, yang melakukan debut mereka minggu lalu atau kurang token atau kurang 400-500 halaman novel tentang kepadatan informasi- “Gemini 2.0” mendukung 1 juta, yang berarti dapat dalam jumlah besar informasi dibuat, membuatnya sangat berguna untuk frekuensi tinggi dan tugas skala besar.
Gemini 2.0 Flash-Lite tiba untuk membuat kurva biaya rendah ke yang terendah
Sementara itu, Gemini 2.0 Flash-Lite adalah model bahasa besar yang sama sekali baru yang bertujuan untuk membuat keputusan ekonomis AI tanpa mengurangi kualitas.
Google DeepMind mengatakan flash-lite mengungguli ukuran penuhnya (perhitungan parameter yang lebih besar) prekursor, kembar 1,5 flash, pada tolok ukur pihak ketiga seperti MMLU Pro (77,6%, dibandingkan dengan 67, 67, 3%) dan pemrograman SQL burung (57,4% vs. 45,6%) sambil mempertahankan harga dan kecepatan yang sama.
Ini juga mendukung input multimodal dan memiliki jendela konteks 1 juta -yang mirip dengan seluruh model flash.
Flash-Lite saat ini merupakan tinjauan publik melalui Google AI Studio dan Vertex AI, dan dalam beberapa minggu mendatang, ketersediaan keseluruhan diharapkan.
Seperti yang ditunjukkan pada tabel di bawah ini, harga Gemini 2.0 flash-lite adalah $ 0,075 per juta token (input) dan $ 0,30 untuk satu juta chip (keluar). Flash-Lite adalah opsi yang sangat terjangkau bagi pengembang, mengungguli flash “kembar 1,5” pada sebagian besar tolok ukur, mempertahankan struktur biaya yang sama.
Logan Kilpatrick menekankan keterjangkauan dan nilai model, menyatakan: “Flash Twin 2.0 adalah dukungan terbaik dari nilai LLM apa pun, waktu untuk membuat!”
Memang, dibandingkan dengan LLM tradisional utama lainnya yang tersedia melalui API penyedia Buka 4o-mini ($ 0,15/$ 0,6 untuk $ 1 juta) Claude antropis ($ 0,8/$ 4! Untuk $ 1 juta
Gemini 2.0 Pro mencapai aksesibilitas eksperimental dengan $ 2 juta. Jendela konteks token
Untuk pengguna yang membutuhkan peluang AI yang lebih maju, model Gemini 2.0 Pro (eksperimental) sekarang dapat diuji.
Google DeepMind menggambarkan ini sebagai model pengkodean produktivitas pengkodean terkuat dan panggilan kompleks. Ini memiliki jendela konteks bahasa 2 juta dan opsi penalaran yang lebih baik yang memiliki kemampuan untuk mengintegrasikan alat eksternal seperti pencarian dan kode Google.
Sam Witteveen, pendiri dan CEO Red Dragon AI, dan pakar pembelajaran mesin Google Creator External, sering berkolaborasi dengan VentureBeat, membahas model Pro di ulasan YouTube; “Model Gemini 2.0 Pro baru memiliki jendela konteks dua juta bahasa, mendukung alat, eksekusi kode, panggilan fitur dan landasan dengan pencarian Google-kami memiliki pro 1.5, tetapi ditingkatkan.”
Dia juga mencatat pendekatan iterasi Google untuk pengembangan AI: “Salah satu perbedaan utama dalam strategi Google adalah bahwa mereka merilis versi eksperimental model sebelum mereka pergi ke GA (biasanya tersedia) yang memungkinkan iterasi cepat iterasi berdasarkan ulasan.”
Standar kinerja juga menggambarkan kemampuan keluarga model Gemini 2.0. Misalnya.
Perubahan PG dalam keamanan dan masa depan
Selain pembaruan ini, Google DeepMind mengimplementasikan keselamatan dan keselamatan model Gemini 2.0 baru. Perusahaan menggunakan penguatan metode pembelajaran untuk meningkatkan keakuratan respons, menggunakan kritik AI dan menyesuaikan hasilnya. Selain itu, pengujian keamanan otomatis digunakan untuk menentukan kerentanan, termasuk ancaman tidak langsung dari suntikan cepat.
Menantikan masa depan, Google DeepMind berencana untuk memperluas kemampuan keluarga model Gemini 2.0, dan cara -cara tambahan diharapkan tersedia dalam beberapa bulan ke depan.
Dengan melakukan pembaruan ini, Google meningkatkan dorongannya untuk kreasi AI, menawarkan berbagai model untuk efisiensi, ketersediaan, dan masalah pemecahan lanjutan dan merespons karpet Deepsee dengan serangkaian modelnya, mulai dari yang kuat hingga sangat kuat dan sangat kuat dan sangat kuat Sangat kuat dan sangat sangat sangat sangat. Terjangkau untuk sedikit kurang (tetapi masih secara signifikan) terjangkau.
Apakah akan cukup untuk membantu Google memasuki beberapa pasar AI Perusahaan, yang pernah mendominasi Openai dan sekarang telah menggantinya dengan Deepseek? Kami akan terus -menerus menonton dan mari kita laporkan!
Source link