Riset Terbaru Perkenalkan Blueprint AI Multimodal untuk Aplikasi Dunia Nyata

Ilustrasi Artificial Intellegence-Pixabay-Pixabay
“Bayangkan mobil tanpa pengemudi yang mampu memadukan data dari kamera, sensor, dan kondisi lingkungan sekitar. Dengan pemahaman yang lebih menyeluruh, mobil semacam itu akan jauh lebih aman dalam menghadapi situasi sulit,” jelas tim peneliti dalam laporannya.
Contoh lainnya datang dari bidang medis. Yakni AI yang mampu menggabungkan catatan klinis, data laboratorium, dan informasi genetik. Metode itu akan lebih akurat dalam mendiagnosis penyakit atau mempercepat penemuan obat baru.
Membangun AI yang Lebih Relevan dan Aman
Profesor Haiping Lu, pemimpin penelitian dari School of Computer Science dan Centre for Machine Intelligence di University of Sheffield, menegaskan perlunya pergeseran paradigma dalam pengembangan AI.
BACA JUGA:Comet AI, Browser AI Perplexity yang Lebih dari Sekadar Mesin Pencari
BACA JUGA:Sora 2, Revolusi Video AI yang Mampu Hidupkan Video dengan Detail Menakjubkan
“AI memang telah banyak mencapai kemajuan dalam bidang visi dan bahasa. Tetapi dunia nyata jauh lebih kaya dan kompleks,” kata Lu.
“Untuk menghadapi tantangan global seperti pandemi, energi berkelanjutan, dan perubahan iklim, kita membutuhkan AI multimodal. AI yang dapat memadukan lebih banyak jenis data dan keahlian lintas disiplin,” katanya.
Profesor Lu menambahkan bahwa riset itu tidak hanya menawarkan teori. Melainkan peta jalan implementatif untuk membawa AI keluar dari laboratorium. Yakni dengan menitikberatkan pada aspek keselamatan, keandalan, dan kegunaan praktis.
Studi tersebut juga melibatkan 48 kontributor dari 22 institusi di seluruh dunia, serta memaparkan tiga kasus penerapan nyata: respons terhadap pandemi, desain mobil otonom, dan adaptasi terhadap perubahan iklim.
BACA JUGA:Meta Akan Gunakan Percakapan AI untuk Beriklan Mulai 16 Desember 2025
BACA JUGA:OpenAI dan Meta Rilis AI Pembuat Video, Tapi Dihujat Netizen!
Fondasi Kolaborasi Global
Blueprint AI multimodal itu lahir dari kerja sama Meta-learning for Multimodal Data Interest Group di bawah naungan Alan Turing Institute.
Dari kolaborasi itu pula muncul UK Open Multimodal AI Network (UKOMAIN). Sebuah jaringan nasional senilai 1,8 juta poundsterling (sekitar 40 miliar rupiah).
UKOMAIN didanai oleh Engineering and Physical Sciences Research Council (EPSRC) dan kini dipimpin oleh Profesor Lu.
Jaringan itu bertujuan mendorong riset dan penerapan AI multimodal berbasis kebutuhan dunia nyata di seluruh Inggris Raya.
Cek Berita dan Artikel yang lain di Google News
Sumber: