Pelajari apa arti kecerdasan umum buatan (AGI), bagaimana LLM bekerja, dan argumen utama mengapa model teks saat ini kemungkinan tidak akan menjadi AGI sejati hanya dengan penskalaan atau fine‑tuning.

\nBersama, langkah‑langkah ini menciptakan sistem yang sangat baik menghasilkan teks lancar dengan memanfaatkan pola statistik—tanpa memiliki pengetahuan yang grounded, tujuan, atau kesadaran.\n\n## Apa yang Bisa Dilakukan LLM Saat Ini dengan Mengejutkan Baik\n\nModel bahasa besar tampak mengesankan karena dapat melakukan beragam tugas yang dulu tampak sulit bagi mesin.\n\n### Kode, teks, dan terjemahan sesuai permintaan\n\nLLM dapat menghasilkan potongan kode yang berfungsi, merapikan kode yang ada, dan bahkan menjelaskan pustaka yang tidak dikenal dalam bahasa sederhana. Bagi banyak pengembang, mereka sudah berfungsi sebagai pasangan pemrogram yang sangat kapabel: menyarankan kasus tepi, menangkap bug jelas, dan membuat kerangka modul lengkap.\n\nMereka juga unggul dalam merangkum. Diberi laporan panjang, makalah, atau utas email, LLM dapat meringkas poin utama, menyoroti tindakan yang diperlukan, atau menyesuaikan nada untuk audiens berbeda.\n\nTerjemahan adalah kekuatan lain. Model modern menangani puluhan bahasa, sering menangkap nuansa gaya dan register cukup baik untuk komunikasi profesional sehari‑hari.\n\n### Tolok ukur penalaran dan perilaku emergen\n\nSeiring model diskalakan, kemampuan baru terlihat muncul “dari ketiadaan”: memecahkan teka‑teki logika, lulus ujian profesional, atau mengikuti instruksi multi‑langkah yang versi sebelumnya gagal. Pada tolok ukur standar—soal kata matematika, pertanyaan bar exam, kuis medis—LLM terbaik kini mencapai atau melampaui skor manusia rata‑rata.\n\nPerilaku emergen ini menggoda orang untuk mengatakan model itu “bernalar” atau “memahami” seperti manusia. Grafik kinerja dan peringkat leaderboard memperkuat gagasan kita mendekati kecerdasan umum.\n\n### Mengapa terasa seperti pemahaman—tetapi bukan\n\nLLM dilatih untuk melanjutkan teks dengan cara yang cocok dengan pola data. Tujuan pelatihan itu, dipadu skala, cukup untuk meniru keahlian dan agensi: mereka terdengar percaya diri, mengingat konteks dalam sesi, dan dapat membenarkan jawaban dalam prosa lancar.\n\nNamun ini adalah ilusi pemahaman. Model tidak tahu apa yang akan dilakukan kode saat dijalankan, apa arti diagnosis medis bagi pasien, atau tindakan fisik apa yang mengikuti dari sebuah rencana. Ia tidak memiliki grounding di dunia di luar teks.\n\nKinerja kuat pada tes—bahkan yang dirancang untuk manusia—tidak otomatis berarti AGI. Itu menunjukkan bahwa pembelajaran pola atas teks masif bisa meniru banyak keterampilan khusus, tetapi tidak menunjukkan kecerdasan lintas‑domain yang fleksibel dan grounded yang biasanya dimaksud dengan “kecerdasan umum buatan.”\n\n## Batas Fundamental dari Pembelajar Pola Hanya‑Teks\n\nModel bahasa besar adalah prediktor teks luar biasa, tetapi desain itu sendiri menciptakan batas keras pada apa yang bisa mereka capai.\n\n### Tidak punya persepsi, tidak berwujud\n\nLLM tidak melihat, mendengar, bergerak, atau memanipulasi objek. Kontak mereka dengan dunia hanya melalui teks (dan, pada beberapa model baru, gambar statis atau klip singkat). Mereka tidak punya aliran sensorik kontinu, tidak punya tubuh, dan tidak punya cara untuk bertindak serta mengamati konsekuensinya.\n\nTanpa sensor dan perwujudan, mereka tidak dapat membentuk model realitas yang grounded dan terus diperbarui. Kata‑kata seperti “berat,” “lengket,” atau “rapuh” hanyalah tetangga statistik dalam teks, bukan kendala yang dialami. Itu memungkinkan imitasi pemahaman yang mengesankan, tetapi membatasi mereka untuk merekombinasi deskripsi masa lalu daripada belajar dari interaksi langsung.\n\n### Halusinasi dan ketiadaan kepercayaan yang stabil\n\nKarena LLM dilatih untuk melanjutkan urutan token, ia menghasilkan kelanjutan yang paling cocok dengan pola yang dipelajari, bukan apa yang benar. Ketika data tipis atau bertentangan, ia mengisi celah dengan fabrikasi yang terdengar masuk akal.\n\nModel juga tidak punya keadaan kepercayaan persisten. Setiap respons dihasilkan ulang dari prompt dan bobot; tidak ada buku besar internal yang bertahan berisi “fakta yang saya pegang.” Fitur memori jangka panjang dipasang sebagai penyimpanan eksternal, tetapi sistem inti tidak merevisi keyakinan seperti manusia.\n\n### Pengetahuan beku dan pembelajaran waktu‑nyata terbatas\n\nMelatih LLM adalah proses batch offline yang intensif sumber daya. Memperbarui pengetahuan biasanya berarti melatih ulang atau fine‑tuning pada dataset baru, bukan belajar secara mulus dari tiap interaksi.\n\nIni menciptakan batas penting: model tidak dapat secara andal mengikuti perubahan cepat di dunia, menyesuaikan konsepnya berdasarkan pengalaman berkelanjutan, atau memperbaiki kesalahpahaman mendalam melalui pembelajaran bertahap. Paling banter, ia dapat mensimulasikan adaptasi tersebut dengan merombak keluaran berdasarkan prompt terbaru atau alat yang dipasangkan.\n\n### Pencocokan pola tanpa pemahaman kausal\n\nLLM unggul menangkap regularitas statistik: kata‑kata yang sering muncul bersama, kalimat yang biasanya mengikuti, seperti apa penjelasan. Tetapi ini tidak sama dengan memahami bagaimana dan mengapa dunia bekerja.\n\nPemahaman kausal melibatkan membentuk hipotesis, melakukan intervensi, mengamati perubahan, dan memperbarui model internal ketika prediksi gagal. Prediktor hanya‑teks tidak punya cara langsung untuk berintervensi atau merasakan kejutan. Ia bisa mendeskripsikan eksperimen namun tidak bisa melakukannya. Ia bisa mengulang bahasa kausal namun tidak punya mesin internal yang terkait tindakan dan konsekuensi.\n\nSelama sistem terbatas pada memprediksi teks dari teks masa lalu, ia tetap fundamental sebagai pembelajar pola. Ia bisa meniru penalaran, menceritakan sebab, dan berpura‑pura merevisi pandangan, tetapi ia tidak menghuni dunia bersama di mana "keyakinannya" diuji oleh konsekuensi. Kesenjangan itu adalah inti mengapa penguasaan bahasa saja tidak mungkin cukup mencapai AGI.\n\n## Mengapa Kecerdasan Umum Meminta Lebih dari Penguasaan Bahasa\n\nBahasa adalah antarmuka yang kuat untuk kecerdasan, tetapi bukan substansi kecerdasan itu sendiri. Sistem yang memprediksi kalimat yang masuk akal sangat berbeda dari agen yang memahami, merencanakan, dan bertindak di dunia.\n\n### Konsep yang grounded, bukan sekadar pola kata\n\nManusia belajar konsep dengan melihat, menyentuh, bergerak, dan memanipulasi. "Cangkir" bukan hanya bagaimana kata itu dipakai dalam kalimat; itu sesuatu yang bisa Anda genggam, isi, jatuhkan, atau pecahkan. Psikolog menyebut ini : konsep terikat pada persepsi dan aksi.\n\nSebuah kecerdasan buatan yang umum hampir pasti membutuhkan grounding serupa. Untuk menggeneralisasi dengan andal, ia harus menghubungkan simbol (kata atau representasi internal) ke regularitas stabil di dunia fisik dan sosial.\n\nLLM standar, bagaimanapun, belajar hanya dari teks. "Pemahaman" mereka tentang cangkir murni statistik: korelasi antar kata di miliaran kalimat. Itu kuat untuk percakapan dan pengkodean, tetapi rapuh saat didorong di luar pola yang dikenal, terutama di domain yang bergantung pada interaksi langsung dengan realitas.\n\n### Memori, tujuan, dan preferensi konsisten\n\nKecerdasan umum juga melibatkan kontinuitas sepanjang waktu: memori jangka panjang, tujuan yang bertahan, dan preferensi yang relatif stabil. Manusia mengumpulkan pengalaman, merevisi keyakinan, dan mengejar proyek selama bulan atau tahun.\n\nLLM tidak punya memori persisten bawaan tentang interaksi mereka sendiri dan tidak punya tujuan intrinsik. Kontinuitas atau "kepribadian" apa pun harus dipasang melalui alat eksternal (basis data, profil, prompt sistem). Secara default, setiap kueri adalah latihan pencocokan pola baru, bukan langkah dalam sejarah hidup yang koheren.\n\n### Perencanaan, kausalitas, dan bertindak di dunia\n\nAGI sering didefinisikan sebagai kemampuan menyelesaikan beragam tugas, termasuk yang novel, dengan bernalar tentang sebab‑akibat dan berintervensi di lingkungan. Itu berarti:\n\n- Membangun model kausal: apa yang terjadi jika saya melakukan X?\n- Merencanakan aksi multi‑langkah dalam ketidakpastian\n- Memperbarui rencana dari umpan balik sensorik\n\nLLM bukan agen; mereka menghasilkan token berikutnya dalam urutan. Mereka bisa rencana atau kausalitas karena pola itu ada dalam teks, tetapi mereka tidak melaksanakan tindakan, mengamati konsekuensi, dan menyesuaikan model internal secara asli.\n\nUntuk mengubah LLM menjadi sistem yang bertindak, insinyur harus membungkusnya dengan komponen eksternal untuk persepsi, memori, penggunaan alat, dan kontrol. Model bahasa tetap modul kuat untuk saran dan evaluasi, bukan agen cerdas umum mandiri.\n\nSingkatnya: kecerdasan umum menuntut konsep yang grounded, motivasi berkelanjutan, model kausal, dan interaksi adaptif dengan dunia. Penguasaan bahasa—meskipun sangat berguna—hanya salah satu bagian dari gambaran yang lebih besar.\n\n## Kesadaran, Diri, dan Mengapa LLM Hanya Terlihat Seperti Berpribadi\n\nSaat orang mengobrol dengan model yang fasih, terasa wajar beranggapan ada pikiran di baliknya. Ilusi itu kuat, tetapi ia ilusi.\n\n### Apakah AGI Memerlukan Kesadaran?\n\nPeneliti berbeda pendapat apakah kecerdasan umum buatan harus memiliki kesadaran.\n\n- mengatakan jika sistem berperilaku seperti agen cerdas umum—belajar lintas domain, merencanakan, bernalar, beradaptasi—maka kesadaran bersifat opsional atau bahkan tidak relevan.\n- berpendapat pemahaman sejati dan kecerdasan umum memerlukan —sebuah “apa rasanya” menjadi sistem itu.\n\nKita belum punya teori yang bisa diuji untuk menyelesaikan ini. Jadi terlalu cepat menyatakan AGI harus, atau tidak harus, sadar. Yang penting sekarang adalah jelas tentang apa yang LLM .\n\n### Tidak Ada Diri yang Terpadu\n\nModel bahasa besar adalah prediktor token statistik yang bekerja pada snapshot teks. Ia tidak membawa identitas stabil antar sesi atau bahkan antar giliran, kecuali yang dikodekan dalam prompt dan konteks jangka pendek.\n\n- Tidak ada memori autobiografis persisten milik satu subjek yang berlanjut.\n- "Persona" apa pun adalah pola yang kita tetapkan atau spesifikasikan, bukan diri sejati yang bertahan dari waktu ke waktu.\n\nKetika LLM mengatakan "Saya", ia hanya mengikuti konvensi linguistik yang dipelajari dari data, bukan merujuk pada subjek batiniah.\n\n### Tidak Ada Pengalaman atau Motivasi Intrinsik\n\nMakhluk sadar memiliki pengalaman: merasakan sakit, bosan, rasa ingin tahu, kepuasan. Mereka juga punya tujuan intrinsik—hal yang penting bagi mereka tanpa dorongan hadiah eksternal.\n\nLLM, sebaliknya:\n\n- Tidak merasakan apa pun saat menghasilkan teks.\n- Tidak punya hasrat, ketakutan, atau preferensi sendiri.\n- Tidak mengejar proyek jangka panjang kecuali kita skrip atau dukung mereka demikian.\n\nPerilaku mereka adalah keluaran pencocokan pola atas teks, dibatasi oleh pelatihan dan prompting, bukan ekspresi kehidupan batin.\n\n### Mengapa Antropomorfisme Berbahaya\n\nKarena bahasa adalah jendela utama kita ke pikiran lain, dialog yang fasih sangat menyiratkan kepribadian. Tetapi pada LLM, justru di sinilah kita paling mudah tertipu.\n\nMengatribusikan sifat manusia pada sistem tersebut dapat:\n\n- Mengaburkan penilaian risiko (mis., khawatir tentang "perasaan" alih‑alih mode kegagalan nyata).\n- Mendorong kepercayaan dan ketergantungan berlebihan karena sistem terdengar percaya diri dan empatik.\n- Menyebabkan kebingungan etis, seperti memperdebatkan hak untuk sistem yang tidak punya kapasitas pengalaman.\n\nMemperlakukan LLM seperti orang mengaburkan garis antara simulasi dan realitas. Untuk berpikir jernih tentang AGI—dan risiko AI sekarang—kita harus ingat bahwa penampilan orang tidak sama dengan menjadi orang.\n\n## Bagaimana Kita Akan Mengenali AGI Sejati?\n\nJika kita pernah membangun kecerdasan umum buatan, bagaimana kita tahu itu nyata dan bukan hanya chatbot yang sangat meyakinkan?\n\n### Usulan yang Ada: Berguna tapi Tidak Cukup\n\n\nTes Turing klasik dan modern bertanya: dapatkah sistem mempertahankan percakapan seperti manusia sehingga menipu orang? LLM sudah melakukan ini dengan mengejutkan baik, yang menunjukkan seberapa rendah ambang itu. Keterampilan ngobrol mengukur gaya, bukan kedalaman pemahaman, perencanaan, atau kompetensi dunia nyata.\n\n\nTugas terinspirasi Alignment Research Center (ARC) fokus pada teka‑teki penalaran baru, instruksi multi‑langkah, dan penggunaan alat. Mereka menguji apakah sistem dapat menyelesaikan masalah yang belum pernah dilihat dengan merangkai keterampilan. LLM bisa melakukan beberapa tugas ini—tetapi sering memerlukan prompt yang disusun rapi, alat eksternal, dan pengawasan manusia.\n\n\nTes "agen" yang diusulkan menanyakan apakah sistem dapat mengejar tujuan terbuka dari waktu ke waktu: memecah menjadi subtujuan, merevisi rencana, menangani interupsi, dan belajar dari hasil. Agen berbasis LLM saat ini bisa tampak beragensi, tetapi di baliknya mereka bergantung pada skrip rapuh dan scaffolding yang dirancang manusia.\n\n### Kriteria Praktis untuk Mengenali AGI\n\nUntuk menganggap sesuatu sebagai AGI sejati, kita ingin melihat sedikitnya:\n\n1. \n Sistem menetapkan dan mengelola subtujuan sendiri, memantau kemajuan, dan pulih dari kegagalan tanpa secara konstan diarahkan manusia.\n\n2. \n Keterampilan yang dipelajari di satu bidang seharusnya beralih mulus ke bidang sangat berbeda, tanpa pelatihan ulang jutaan contoh.\n\n3. \n Mampu merencanakan dan bertindak di lingkungan yang berantakan dan tidak pasti—fisik, sosial, dan digital—di mana aturan tidak lengkap dan konsekuensi nyata.\n\n### Kelemahan LLM\n\nLLM, bahkan saat dibungkus dalam kerangka agen, umumnya:\n\n- Bergantung pada alur kerja buatan tangan untuk tampak otonom.\n- Kesulitan mentransfer keterampilan ketika tugas menyimpang jauh dari distribusi pelatihan.\n- Memerlukan alat eksternal, filter keselamatan eksplisit, dan manusia dalam loop untuk menangani taruhannya dunia nyata.\n\nLulus tes berbasis chat, atau bahkan rangkaian tolok ukur sempit, tidaklah cukup. Mengenali AGI sejati berarti melihat ke luar kualitas percakapan ke otonomi yang berkelanjutan, generalisasi lintas‑domain, dan aksi yang dapat diandalkan di dunia—area di mana LLM saat ini masih memerlukan scaffolding luas hanya untuk hasil parsial dan rapuh.\n\n## Di Luar LLM: Jalur yang Diteliti Menuju AGI\n\nJika kita menganggap AGI serius, maka “sebuah model teks besar” hanyalah salah satu bahan, bukan sistem jadi. Sebagian besar penelitian yang terdengar seperti "menuju AGI" sebenarnya tentang membungkus LLM dalam arsitektur yang lebih kaya.\n\n### LLM sebagai Komponen dalam Sistem Agen\n\nSatu arah utama adalah agen berbasis LLM: sistem yang menggunakan LLM sebagai inti penalaran dan perencanaan, tetapi mengelilinginya dengan:\n\n- yang bertahan antar sesi, sehingga sistem dapat mengumpulkan pengetahuan dan pengalaman\n- yang memecah tujuan menjadi sub‑tugas dan memutuskan alat mana yang dipanggil\n- yang memungkinkan self‑kritique, revisi, dan coba‑ulang\n\nDi sini LLM berhenti menjadi keseluruhan “kecerdasan” dan menjadi antarmuka berbahasa fleksibel di dalam mesin pengambilan keputusan yang lebih luas.\n\n### Penggunaan Alat, API, dan Pengetahuan Eksternal\n\nSistem yang menggunakan alat memungkinkan LLM memanggil mesin pencari, basis data, interpreter kode, atau API domain‑khusus. Ini membantu mereka:\n\n- Mengakses informasi mutakhir atau khusus\n- Membebankan matematika, simulasi, dan logika ke mesin yang andal\n\nPatchwork ini dapat memperbaiki beberapa kelemahan pembelajaran pola hanya‑teks, tetapi memindahkan persoalan: kecerdasan keseluruhan bergantung pada orkestrasi dan desain alat, bukan hanya model.\n\n### Model Multimodal dan Sistem Berwujud\n\nRute lain adalah yang memproses teks, gambar, audio, video, dan kadang data sensor. Mereka lebih dekat dengan cara manusia mengintegrasikan persepsi dan bahasa.\n\nMelangkah lebih jauh, Anda mendapat LLM yang mengendalikan atau tubuh simulasi. Sistem‑sistem ini dapat menjelajah, bertindak, dan belajar dari umpan balik fisik, menangani beberapa kekurangan tentang kausalitas dan pemahaman grounded.\n\n### Mengubah Pertanyaan, Bukan Menyelesaikannya\n\nSemua jalur ini mungkin membuat kita pada kemampuan mirip AGI, tetapi mereka juga mengubah target riset. Kita tidak lagi bertanya, “Bisakah LLM saja menjadi AGI?” tetapi “Bisakah sistem kompleks yang melibatkan LLM, alat, memori, persepsi, dan perwujudan mendekati kecerdasan umum?”\n\nPerbedaan itu penting. LLM adalah prediktor teks yang kuat. AGI—jika bisa diwujudkan—akan menjadi sistem terintegrasi utuh, di mana bahasa hanyalah salah satu bagian.
AGI (Artificial General Intelligence) mengacu pada sistem yang dapat:
Aturan praktis: AGI, secara prinsip, bisa mempelajari hampir semua pekerjaan intelektual yang bisa dilakukan manusia, diberi waktu dan sumber daya, tanpa memerlukan arsitektur khusus untuk tiap tugas baru.
Model bahasa besar modern:
Mereka dapat mensimulasikan pengetahuan dan penalaran luas karena bahasa menyandi banyak keahlian manusia. Namun mereka:
Orang sering menyamakan bahasa fasih dengan kecerdasan umum karena:
Ini menciptakan ilusi pemahaman dan agensi. Sistem dasarnya masih “hanya” memprediksi teks berdasarkan pola dalam data, bukan membangun dan menggunakan model dunia yang berlandaskan untuk mengejar tujuannya sendiri.
Anda bisa membayangkan LLM sebagai:
Poin penting:
LLM sangat baik ketika tugas terutama soal prediksi pola atas teks atau kode, seperti:
Mereka kesulitan atau berisiko ketika tugas membutuhkan:
Hukum skala menunjukkan bahwa ketika Anda menambah ukuran model, data, dan komputasi, kinerja di banyak tolok ukur sering meningkat. Tetapi skala saja tidak memperbaiki celah struktural:
Lebih banyak skala memberi:
Gunakan LLM sebagai asisten kuat, bukan otoritas:
Desain produk dan proses Anda sehingga:
Menyebut LLM saat ini sebagai “AGI” menyebabkan beberapa masalah:
Bahasa yang lebih tepat—“LLM”, “model sempit”, “sistem agent menggunakan LLM”—membantu menyelaraskan ekspektasi dengan kapabilitas dan risiko nyata.
Kriteria yang masuk akal harus jauh melampaui kemampuan chat yang bagus. Kita ingin bukti tentang:
Peneliti mengeksplorasi sistem lebih luas di mana LLM adalah komponen, bukan keseluruhan kecerdasan, misalnya:
Arah‑arah ini mendekatkan kita pada kecerdasan umum dengan menambahkan grounding, kausalitas, dan keadaan persisten. Mereka juga mengubah pertanyaan dari “Bisakah LLM menjadi AGI?” menjadi “Bisakah sistem kompleks LLM mendekati perilaku mirip AGI?”
Jadi LLM adalah pembelajar pola sempit yang kuat atas bahasa, bukan agen cerdas umum yang berdiri sendiri.
Segala yang tampak seperti penalaran atau memori muncul dari tujuan prediksi token berikutnya ditambah skala dan fine‑tuning, bukan dari logika simbolik eksplisit atau gudang kepercayaan persisten.
Di area tersebut, LLM hanya boleh digunakan dengan pengawasan manusia yang kuat dan alat eksternal (pencarian, kalkulator, simulator, daftar periksa).
Tapi itu tidak otomatis menghasilkan kecerdasan umum otonom. Dibutuhkan bahan arsitektural dan desain sistem baru untuk itu.
LLM saat ini—meskipun dibungkus dengan scaffolding agen—masih memerlukan scripting manusia yang berat dan orkestrasi alat untuk mendekati perilaku ini, dan tetap kurang dalam ketahanan dan generalitas.