Bye-Bye Lemot! Mercury 2 Rilis: 5x Lebih Kencang dari GPT dengan Teknologi ‘Diffusion Reasoning’

Oleh: Tim Redaksi TeknologiNow (25 Februari 2026)

Lanskap kecerdasan buatan (Artificial Intelligence) baru saja mengalami pergeseran tektonik. Selama hampir tiga tahun, industri AI terjebak dalam paradigma autoregressive—metode di mana model bahasa menghasilkan teks satu per satu token (kata atau fragmen kata) secara berurutan. Meskipun efektif, metode ini memiliki batasan kecepatan fisik yang tidak bisa dihindari: setiap token baru harus menunggu token sebelumnya selesai diproses.

Namun, per tanggal 24 Februari 2024 (Waktu Pasifik), Inception Labs—sebuah startup yang didirikan oleh para peneliti pionir dari Stanford, UCLA, dan Cornell—resmi meluncurkan Mercury 2. Ini bukan sekadar peningkatan kecepatan biasa; ini adalah Reasoning Diffusion Large Language Model (dLLM) komersial pertama di dunia yang siap mengubah cara kita berinteraksi dengan mesin.

Revolusi Arsitektur: Mengapa ‘Diffusion’ Lebih Unggul?

Untuk memahami mengapa Mercury 2 sangat cepat, kita harus melihat bagaimana ia bekerja di balik layar. Berbeda dengan model tradisional seperti GPT-5 atau Claude yang bersifat sekuensial, Mercury 2 menggunakan pendekatan “Coarse-to-Fine” yang dipinjam dari teknologi generator gambar seperti Stable Diffusion atau Midjourney.

Mekanisme ‘Denoising’ Teks

Dalam model difusi teks, proses dimulai dengan “noise” atau sekumpulan karakter acak. Model kemudian melakukan proses denoising (pembersihan gangguan) secara berulang. Bedanya dengan model gambar, Mercury 2 melakukannya pada data tekstual secara paralel.

Alih-alih mengetik satu huruf per satu huruf, Mercury 2 seolah-olah “mencetak” satu paragraf sekaligus di atas kertas digital. Menurut laporan teknis dari Inception Labs, hal ini memungkinkan model untuk memproses banyak token secara simultan, sehingga menghasilkan kecepatan keluaran yang menembus 1.000 token per detik. Sebagai perbandingan, model tercepat yang dioptimalkan saat ini (seperti GPT-5.2 Mini) biasanya hanya bertahan di angka 150-200 token per detik.

Performa ‘Reasoning’ Tanpa Kompromi

Salah satu keraguan terbesar terhadap model difusi teks di masa lalu adalah kem Kemampuannya dalam logika atau reasoning. Inception Labs menjawab tantangan ini dengan menyuntikkan lapisan Multi-step Planning di dalam proses difusi tersebut.

Mercury 2 tidak hanya menulis; ia “merencanakan” jawaban di dalam ruang laten sebelum menampilkannya. Hal ini memberikan keunggulan kritis:
1. Koreksi Kesalahan Instan: Karena model melihat blok teks secara utuh, ia bisa mendeteksi kontradiksi logika sebelum teks tersebut dikirim ke pengguna.
2. Pengurangan Halusinasi: Peneliti mengklaim penurunan tingkat halusinasi sebesar 93% dibandingkan model autoregressive dengan ukuran parameter yang setara.
3. Efisiensi GPU yang Maksimal: Karena pemrosesan dilakukan secara paralel, beban pada GPU (seperti Nvidia H200 atau B200) menjadi jauh lebih efisien, yang pada gilirannya menekan biaya operasional (inference cost) bagi perusahaan.

Mengapa Developer dan Lab AI Sangat Antusias?

Dunia pengembang aplikasi AI sedang heboh, dan alasannya bukan sekadar soal angka di atas kertas. Latensi rendah adalah “cawan suci” dalam membangun AI Agent yang otonom.

  • Agentic Workflows Tanpa Delay: Membangun agen yang harus melakukan perencanaan 10 langkah biasanya memakan waktu belasan detik hingga menit. Dengan Mercury 2, proses perencanaan 10 langkah tersebut bisa dilakukan hampir secara instan.
  • Voice AI yang Terasa ‘Manusia’: Salah satu penghambat utama asisten suara AI adalah jeda pemrosesan yang membuat percakapan terasa kaku. Mercury 2 memangkas latensi tersebut hingga di bawah 100ms, ambang batas di mana telinga manusia merasa percakapan terjadi secara real-time.
  • Coding Feedback Instan: Bagi developer, Mercury 2 menawarkan asisten coding yang bisa memberikan saran refactoring untuk ribuan baris kode dalam hitungan detik, bukan lagi menit.

Konteks Industri: Pendanaan dan Masa Depan

Keberhasilan rilis Mercury 2 ini didukung oleh pendanaan seed senilai $50 juta dari investor kelas kakap seperti Menlo Ventures. Hal ini membuktikan bahwa para pemodal besar mulai melihat masa depan AI di luar dominasi OpenAI dan Google. Strategi Inception Labs yang fokus pada “Hardware-Aware Software” sangat selaras dengan kebangkitan chip AI khusus seperti MatX yang baru saja mendapatkan Rp 7,8 Triliun.

Bagi pasar Indonesia, hadirnya teknologi seperti Mercury 2 adalah berkah. Biaya inference yang lebih murah berarti startup lokal bisa mengintegrasikan fitur AI canggih ke dalam aplikasi mereka tanpa harus membakar uang hanya untuk biaya API yang mahal.

Rekomendasi Redaksi: Dukungan Perangkat untuk Era AI Kilat

Untuk memaksimalkan penggunaan model AI yang super kencang ini, pengembang dan pengguna pro memerlukan perangkat yang didukung oleh bandwidth memori tinggi. Berikut adalah beberapa perangkat yang kami rekomendasikan untuk tahun 2026:

Produk Keunggulan Utama Link Shopee
Nvidia RTX 4070 Ti Super 16GB VRAM untuk Local LLM Cek Harga di Shopee
MacBook Pro M4 Max (2026) Unified Memory Tercepat Cek Harga di Shopee
SSD Samsung 990 Pro 4TB Latensi Data Terendah Cek Harga di Shopee

Kesimpulan: Era Baru ‘Instant Intelligence’

Rilisnya Mercury 2 bukan sekadar peluncuran produk; ini adalah bukti bahwa dominasi model autoregressive yang dimulai sejak era GPT-2 kini mendapatkan tantangan serius. Dengan Diffusion Reasoning, Inception Labs telah membuka pintu menuju masa depan di mana kecerdasan buatan tidak lagi memiliki hambatan kecepatan.

Bagi kita para pengguna, ini berarti asisten digital yang lebih pintar, respons yang lebih akurat, dan pengalaman digital yang jauh lebih manusiawi. Selamat datang di era di mana AI berpikir dan berbicara secepat kilat!


Baca Juga Artikel Terkait:


Discover more from teknologi now

Subscribe to get the latest posts sent to your email.

Leave a Reply

Your email address will not be published. Required fields are marked *

Discover more from teknologi now

Subscribe now to keep reading and get access to the full archive.

Continue reading