-The Institute of Management Development (IMD) dan tim ahli dari TONOMUS Global Center for and Transformation membuat “AI Safety Clock” (Jam Keamanan ). Jam ini menjadi indikator seberapa tinggi risiko perkembangan Umum (Artificial General Intelligence/ AGI) hingga menjadi tidak terkendali. AGI merupakan sistem yang bisa beroperasi mandiri tanpa bantuan dan pengawasan manusia, sehingga berpotensi membahayakan.

Lalu seberapa berbahaya ancaman bagi umat manusia saat ini? Menurut Michael Wade, Director Global Center for Business Transformation IMD, sekaligus Director of the TONOMUS Global Center for and Transformation terdapat empat fase risiko AGI yang tidak terkendali, yakni: risiko rendah, sedang, tinggi, dan kritis. Saat ini, mulai memasuki fase risiko tinggi.

“Perkembangan AGI saat ini kita sedang beralih dari fase risiko sedang ke risiko tinggi. Ketika perkembagan AGI menjadi kritis dan tidak terkendali, hal itu akan menjadi musibah bagi umat manusia. Risikonya serius, tetapi belum terlambat untuk bertindak,” jelas Wade.

“Regulasi yang efektif dan terpadu bisa membatasi risiko terburuk perkembangan teknologi ini tanpa mengurangi manfaatnya. Untuk itu, kami menyerukan kepada para pelaku dan teknologi raksasa untuk melakukan pencegahan demi kebaikan kita semua,” tegasnya.

Ketika perkembangan AGI menjadi tidak lagi bisa dikendalikan manusia, maka hal ini bisa menjadi musibah bagi , contohnya:

  • Ketika mengambil alih dan mengendalikan persenjataan konvensional, mulai dari senjata nuklir, biologi, atau . saat ini sedang mempercepat komersialisasi robot humanoid, termasuk penerapannya di sensitif seperti jaringan dan pembangkit tenaga nuklir;
  • digunakan untuk memanipulasi atau mengganggu pasar keuangan;
  • dipakai memanipulasi atau mengganggu penting, seperti , transportasi, , , dll;
  • Penggunaan untuk manipulasi atau mengganggu sistem , jaringan sosial, dan biologis dan ;
  • Ancaman langsung terhadap nyawa manusia.

berisiko tinggi

Ada dua perkembangan AI yang mendorong peningkatan risiko dari sedang menjadi tinggi: AI multimoda (AI multimodal) dan AI agen (agentic AI). AI multimoda bisa memproses dan mengintegrasikan beberapa jenis input (seperti , gambar, audio) untuk menyelesaikan tugas yang lebih kompleks, contohnya adalah GPT-4o, Ultra, dan Pixtral 12B.

Sementara AI agen mengacu pada sistem AI yang mampu merencanakan, bertindak, dan membuat keputusan secara otonom. Saat ini AI agen tengah berkembang pesat. Perkembangan AI agen memang mendorong kemajuan AGI, namun berpotensi menjadi bencana ketika sistem ini menjadi tidak terkendali setelah digabungkan dengan teknologi lain.

Contoh lainnya adalah perkembangan robot humanoid yang ditenagai oleh AI generatif. AI generatif digunakan agar robot humanoid ini bisa beroperasi dan mengambil keputusan secara mandiri. tengah bermitra dengan robotika untuk mengembangkan model dasar untuk robot humanoid semacam ini.

Kemajuan teknologi ini memang menarik, namun bisa menjadi ancaman tersembunyi bagi manusia. Pengawasan yang cermat dan manajemen yang bertanggung jawab penting agar penerapan AI lebih aman dan tidak menjadi ‘senjata tuan’.

Pentingnya regulasi

Dalam sejarah, regulasi sering kali keluar lebih lambat dari perkembangan teknologi dan . Saat ini, terdapat sejumlah inisiatif seperti EU AI Act, California’s SB 1047, dan Council of Europe’s Framework Convention on AI yang bisa menjadi acuan aturan AI. Selain aturan dan pemerintah, semua pemangku kepentingan, terutama yang mengembangkan model AI seperti , Meta, dan Alphabet, memainkan peran yang sama besar untuk mengurangi risiko AI.

Untuk praktik keselamatan AI, sejumlah teknologi pengembang AI telah mencoba menerapkan regulasi pengamanan. telah menyediakan Preparedness Framework, Alphabet memiliki Google DeepMind Frontier Safety Framework, dan Anthropic menyiapkan Responsible Scaling Policy (RSP). Berbagai kerangka kerja ini merupakan langkah penting menjaga keselamatan AI, namun masih diperlukan transparansi dan penegakan langkah praktis yang lebih baik.

AI Safety Clock (Jam Keamanan AI) ini dibuat untuk meningkatkan kesadaran dan diskusi konstruktif bagi , pembuat , dan tentang keamanan AI. Jam Keamanan AI dibuat dengan membuat terhadap teknologi dan pengumuman dari lebih dari 3.500 dan pemerintah di seluruh .