-The Institute of Management Development (IMD) dan tim ahli dari TONOMUS Center for Digital and AI Transformation membuat “AI Safety Clock” (Jam Keamanan AI). Jam ini menjadi indikator seberapa tinggi risiko perkembangan Kecerdasan Buatan Umum (Artificial General Intelligence/ AGI) hingga menjadi tidak terkendali. AGI merupakan AI yang bisa beroperasi mandiri tanpa bantuan dan pengawasan , sehingga berpotensi membahayakan.

Lalu seberapa berbahaya ancaman AI bagi umat saat ini? Menurut Michael Wade, Director Center for Digital Business Transformation IMD, sekaligus Director of the TONOMUS Center for Digital and AI Transformation terdapat empat fase risiko AGI yang tidak terkendali, yakni: risiko rendah, sedang, tinggi, dan kritis. Saat ini, mulai memasuki fase risiko tinggi.

“Perkembangan AGI saat ini kita sedang beralih dari fase risiko sedang ke risiko tinggi. Ketika perkembagan AGI menjadi kritis dan tidak terkendali, hal itu akan menjadi musibah bagi umat . Risikonya serius, tetapi belum terlambat untuk bertindak,” jelas Wade.

“Regulasi yang efektif dan terpadu bisa membatasi risiko terburuk perkembangan ini tanpa mengurangi manfaatnya. Untuk itu, kami menyerukan kepada para pelaku dan raksasa untuk melakukan pencegahan demi kebaikan kita semua,” tegasnya.

Ketika perkembangan AGI menjadi tidak lagi bisa dikendalikan , maka hal ini bisa menjadi musibah bagi , contohnya:

  • Ketika AI mengambil alih dan mengendalikan persenjataan konvensional, mulai dari senjata , biologi, atau . China saat ini sedang mempercepat komersialisasi robot humanoid, termasuk penerapannya di infrastruktur sensitif seperti listrik dan pembangkit listrik tenaga ;
  • AI digunakan untuk memanipulasi atau mengganggu pasar keuangan;
  • AI dipakai memanipulasi atau mengganggu infrastruktur penting, seperti energi, transportasi, , , dll;
  • Penggunaan AI untuk manipulasi atau mengganggu , sosial, dan biologis dan lingkungan;
  • Ancaman langsung AI terhadap nyawa .

AI berisiko tinggi

Ada dua perkembangan AI yang mendorong peningkatan risiko dari sedang menjadi tinggi: AI multimoda (AI multimodal) dan AI agen (agentic AI). AI multimoda bisa memproses dan mengintegrasikan beberapa jenis input (seperti , gambar, audio) untuk menyelesaikan tugas yang lebih kompleks, contohnya adalah GPT-4o, Gemini Ultra, dan Pixtral 12B.

Sementara AI agen mengacu pada AI yang mampu merencanakan, bertindak, dan membuat keputusan secara otonom. Saat ini AI agen tengah berkembang pesat. Perkembangan AI agen memang mendorong kemajuan AGI, namun berpotensi menjadi bencana ketika ini menjadi tidak terkendali setelah digabungkan dengan teknologi lain.

lainnya adalah perkembangan robot humanoid yang ditenagai oleh AI generatif. AI generatif digunakan agar robot humanoid ini bisa beroperasi dan mengambil keputusan secara mandiri. tengah bermitra dengan robotika untuk mengembangkan model dasar untuk robot humanoid semacam ini.

Kemajuan teknologi ini memang menarik, namun bisa menjadi ancaman tersembunyi bagi . Pengawasan yang cermat dan manajemen yang bertanggung jawab penting agar AI lebih aman dan tidak menjadi ‘senjata tuan’.

Pentingnya regulasi

Dalam sejarah, regulasi sering kali keluar lebih lambat dari perkembangan teknologi dan . Saat ini, terdapat sejumlah inisiatif seperti EU AI Act, California’s SB 1047, dan Council of Europe’s Framework Convention on AI yang bisa menjadi acuan aturan AI. Selain aturan dan pemerintah, semua pemangku kepentingan, terutama yang mengembangkan model AI seperti , , dan Alphabet, memainkan peran yang sama besar untuk mengurangi risiko AI.

Untuk praktik keselamatan AI, sejumlah teknologi pengembang AI telah mencoba menerapkan regulasi pengamanan. telah menyediakan Preparedness Framework, Alphabet memiliki DeepMind Frontier Safety Framework, dan Anthropic menyiapkan Responsible Scaling Policy (RSP). Berbagai kerangka kerja ini merupakan langkah penting menjaga keselamatan AI, namun masih diperlukan transparansi dan penegakan langkah praktis yang lebih baik.

AI Safety Clock (Jam Keamanan AI) ini dibuat untuk meningkatkan kesadaran dan diskusi konstruktif bagi , pembuat , dan tentang keamanan AI. Jam Keamanan AI dibuat dengan membuat terhadap teknologi dan pengumuman dari lebih dari 3.500 dan pemerintah di seluruh .