Arti DeepSeek bagi AI: “Game-Changer” dalam Penalaran AI

3 weeks ago 20

SUKABUMI – Industri kecerdasan buatan (AI) mengalami gebrakan besar dengan kehadiran DeepSeek, perusahaan AI asal Tiongkok yang baru-baru ini meluncurkan dua Large Language Models (LLM) terbuka, yakni DeepSeek-V3 dan DeepSeek-R1.

Sejak diperkenalkan pada Desember 2024, model-model ini langsung menarik perhatian komunitas AI global karena menawarkan aksesibilitas dan efisiensi tinggi. Dengan inovasi ini, DeepSeek menjadi penantang serius bagi model-model AI raksasa seperti OpenAI dan Anthropic.

Ketika DeepSeek merilis aplikasi chatbot gratisnya pada Januari 2025, aplikasi tersebut dengan cepat merajai tangga unduhan di App Store, menyaingi aplikasi AI terkemuka lainnya. Popularitas ini berdampak besar pada pasar AI global, menyebabkan penurunan nilai saham AI hingga lebih dari $600 miliar pada 27 Januari 2025.

Dosen Program Studi S2 Computer Science Universitas Nusa Putra (NPU) Sukabumi, Assoc Prof. Deden Witarsyah, menyatakan bahwa kehadiran DeepSeek membuka peluang baru bagi akademisi dan industri dalam menerapkan model AI canggih dengan biaya lebih terjangkau. Bahkan, model ini mulai dipertimbangkan untuk diterapkan dalam kurikulum S2 Computer Science di NPU.

Menurutnya, DeepSeek-R1 memiliki keunggulan signifikan dalam efisiensi biaya dibandingkan dengan model Llama milik Meta, sehingga lebih ekonomis untuk pengembangan AI di lingkungan akademik dan bisnis.

“Namun, meski DeepSeek menawarkan modelnya secara gratis untuk penggunaan dan modifikasi, beberapa kalangan tetap mempertanyakan transparansi dalam data pelatihan dan kode sumber yang digunakan,” terangnya.

Salah satu faktor utama yang menjadikan DeepSeek-V3 istimewa adalah metode pelatihan yang hemat biaya. Dengan anggaran sekitar $5,6 juta, DeepSeek berhasil melatih modelnya menggunakan chip H800 dari Nvidia—chip yang sebenarnya dirancang untuk mematuhi pembatasan ekspor AS pada tahun 2022. Meski tidak sekuat perangkat keras papan atas Nvidia, DeepSeek berhasil mencapai performa luar biasa dengan algoritma “DualPipe” dan arsitektur Mixture-of-Experts (MoE). Dengan 671 miliar parameter, DeepSeek-V3 mampu bersaing dengan model GPT-4 dan Claude 3.5 Sonnet yang memiliki lebih dari 1 triliun parameter dalam uji benchmark.

Mixture-of-Experts (MoE) adalah arsitektur AI yang membagi tugas antara beberapa jaringan saraf khusus untuk meningkatkan efisiensi. Dengan hanya mengaktifkan sebagian kecil dari total parameter setiap kali model dijalankan, MoE memungkinkan AI bekerja lebih cepat dan hemat sumber daya. Teknologi ini juga telah diadopsi oleh model lain seperti Switch Transformer Google.

DeepSeek tidak hanya berfokus pada model bahasa, tetapi juga mengembangkan DeepSeek-R1, model AI yang dirancang untuk penalaran tingkat lanjut. Berbeda dengan metode Supervised Fine-Tuning (SFT) yang memerlukan data berlabel manusia dalam jumlah besar, DeepSeek-R1 menggunakan pendekatan Reinforcement Learning (RL) untuk meningkatkan kemampuannya. Pendekatan ini memungkinkan model belajar secara mandiri dari interaksi dengan lingkungan, sehingga lebih adaptif dalam pemecahan masalah.

Awalnya, iterasi pertama model ini, DeepSeeker-R1-Zero, menghadapi kendala seperti pencampuran bahasa dalam responnya. Namun, perusahaan mengatasinya dengan strategi “cold start,” yaitu memulai pelatihan dengan kumpulan data kecil yang telah dianotasi manusia sebelum menerapkan teknik pembelajaran penguatan.

Terlepas dari berbagai perdebatan mengenai open-source, dampak DeepSeek terhadap industri AI tidak dapat diabaikan. Model-model yang lebih hemat biaya dan berkinerja tinggi kini lebih mudah diakses oleh komunitas akademik, startup, hingga perusahaan besar. Hal ini dapat mengubah arah pengembangan AI di masa depan, membuka jalan bagi inovasi yang lebih inklusif dan mengurangi dominasi model AI milik perusahaan raksasa.

“Dengan AI yang semakin terjangkau dan canggih, langkah DeepSeek bisa menjadi awal dari era baru AI terbuka yang lebih demokratis. Apakah ini akan menjadi revolusi AI yang sejati? Waktu yang akan menjawabnya,” tutupnya. (*/wdy)

Read Entire Article
Anggam Lokal| Radarsukabumi| | |