
Liquid AI memperkenalkan LFM 2.5 sebagai model AI vision-language yang dirancang untuk berjalan langsung di perangkat seperti laptop dan ponsel. Fokus utamanya bukan sekadar kemampuan pemrosesan visual, tetapi juga efisiensi sumber daya, privasi data, dan kinerja lokal tanpa bergantung pada cloud.
Bagi pengguna yang mencari model AI tercepat untuk laptop, LFM 2.5 menarik karena dapat bekerja secara offline setelah tersimpan di perangkat. Rujukan dari Better Stack menyebut model ini berjalan dengan dukungan WebGPU dan ONNX Runtime, sehingga pemrosesan dapat dilakukan langsung di perangkat harian tanpa server eksternal.
Mengapa LFM 2.5 menonjol di laptop
Nilai jual utama LFM 2.5 ada pada pendekatan local-first. Artinya, data sensitif tidak perlu dikirim ke cloud karena seluruh proses analisis berlangsung di perangkat pengguna.
Pendekatan ini memberi dua keuntungan yang langsung terasa. Pertama, privasi lebih terjaga karena file, dokumen, atau gambar tetap berada di laptop, dan kedua, model tetap dapat dipakai dalam kondisi koneksi terbatas atau tanpa internet sama sekali.
Better Stack menyoroti bahwa LFM 2.5 dirancang untuk perangkat umum, bukan mesin kelas server. Model ini juga disebut membutuhkan RAM kurang dari 1 GB, angka yang penting karena membuka akses AI visual ke lebih banyak laptop tanpa GPU khusus.
Arsitektur yang dibuat untuk cepat dan hemat
LFM 2.5 memakai arsitektur hibrida. Desain ini menggabungkan convolutional blocks untuk mengekstrak fitur spasial pada gambar dan grouped query attention untuk memproses input multimodal secara lebih efisien.
Kombinasi itu relevan untuk tugas yang butuh kecepatan dan akurasi sekaligus. Contohnya meliputi image captioning, visual question answering, analisis dokumen, pengenalan teks, hingga pemrosesan video secara real-time.
Secara teknis, pendekatan ini penting karena model vision sering tersendat saat dijalankan di perangkat ringan. Dengan pembagian kerja antara blok konvolusi dan mekanisme attention, beban komputasi bisa ditekan tanpa mengorbankan kemampuan memahami relasi antara teks dan gambar.
Konteks panjang, tetapi tetap ringan
Salah satu spesifikasi paling mencolok dari LFM 2.5 adalah context window hingga 32.000 token. Dukungan ini memungkinkan model menangani input panjang, termasuk dokumen besar atau rangkaian instruksi yang lebih kompleks.
Liquid AI juga membawa Linear Input Varying Architecture atau LIIV. Menurut rujukan artikel, LIIV membantu mengoptimalkan penggunaan memori sehingga model tetap stabil saat menangani beban yang lebih besar.
Fitur ini penting untuk skenario kerja nyata di laptop. Pengguna tidak hanya memproses satu gambar, tetapi sering harus membaca dokumen, membandingkan tabel, menganalisis tangkapan layar, dan menghasilkan ringkasan dalam satu alur kerja.
Kemampuan visual untuk kebutuhan nyata
LFM 2.5 mendukung gambar beresolusi hingga 512×512 piksel secara native. Untuk gambar yang lebih besar, model memakai strategi tiling, yaitu membagi gambar menjadi bagian-bagian kecil agar analisis tetap akurat tanpa membebani sistem.
Strategi itu berguna untuk pekerjaan yang menuntut detail. Better Stack mencontohkan penggunaannya pada citra medis, citra satelit, dan inspeksi industri, tiga bidang yang sama-sama bergantung pada pembacaan visual presisi tinggi.
Di luar sektor khusus, pendekatan serupa juga relevan untuk pengguna laptop biasa. Misalnya untuk membaca isi dokumen yang dipindai, menafsirkan diagram, atau mengenali objek dan teks dari foto dengan respons cepat.
Faktor yang membuatnya cocok untuk laptop
Ada beberapa alasan mengapa LFM 2.5 layak disebut salah satu model AI vision tercepat dan paling praktis untuk laptop:
- Berjalan lokal tanpa cloud.
- Dapat dipakai offline setelah model tersimpan.
- Konsumsi memori rendah, di bawah 1 GB RAM.
- Mendukung WebGPU untuk akselerasi di browser.
- Mampu menangani tugas visual dan teks dalam satu model.
Gabungan faktor tersebut membuat hambatan adopsi jadi lebih rendah. Pengguna tidak harus menunggu proses unggah data ke server, tidak perlu internet stabil setiap saat, dan tidak wajib memiliki perangkat kelas workstation.
Latihan data besar, targetnya penggunaan luas
Artikel rujukan juga menyebut LFM 2.5 dilatih menggunakan dataset sebesar 28 triliun token. Skala pelatihan ini menunjukkan bahwa model tersebut tidak dibangun hanya untuk satu skenario sempit, melainkan untuk berbagai tugas multimodal yang lebih luas.
Dalam lanskap AI saat ini, ukuran model besar tidak selalu berarti pengalaman terbaik di perangkat pribadi. Tren justru bergerak ke model yang lebih efisien, responsif, dan bisa dijalankan dekat dengan pengguna, terutama untuk pekerjaan yang melibatkan data sensitif.
Karena itu, LFM 2.5 menarik bukan hanya dari sisi spesifikasi, tetapi juga dari arah pengembangannya. Saat banyak model AI masih mengandalkan infrastruktur cloud, Liquid AI justru mendorong pemrosesan lokal sebagai standar baru untuk laptop dan perangkat harian.
Source: www.geeky-gadgets.com








