-The Institute of Management Development (IMD) dan tim ahli dari TONOMUS Global Center for Digital and Transformation membuat “AI Safety Clock” (Jam ). Jam ini menjadi indikator seberapa tinggi risiko perkembangan Umum (Artificial General Intelligence/ AGI) hingga menjadi tidak terkendali. AGI merupakan sistem yang bisa beroperasi mandiri tanpa bantuan dan pengawasan manusia, sehingga berpotensi membahayakan.

Lalu seberapa berbahaya ancaman bagi umat manusia saat ini? Menurut Michael Wade, Director Global Center for Digital Business Transformation IMD, sekaligus Director of the TONOMUS Global Center for Digital and Transformation terdapat empat fase risiko AGI yang tidak terkendali, yakni: risiko rendah, sedang, tinggi, dan kritis. Saat ini, dunia mulai memasuki fase risiko tinggi.

“Perkembangan AGI saat ini kita sedang beralih dari fase risiko sedang ke risiko tinggi. Ketika perkembagan AGI menjadi kritis dan tidak terkendali, hal itu akan menjadi musibah bagi umat manusia. Risikonya serius, tetapi belum terlambat untuk bertindak,” jelas Wade.

“Regulasi yang efektif dan terpadu bisa membatasi risiko terburuk perkembangan teknologi ini tanpa mengurangi manfaatnya. Untuk itu, kami menyerukan kepada para pelaku dan perusahaan teknologi raksasa untuk melakukan pencegahan demi kebaikan kita semua,” tegasnya.

Ketika perkembangan AGI menjadi tidak lagi bisa dikendalikan manusia, maka hal ini bisa menjadi musibah bagi dunia, contohnya:

  • Ketika mengambil alih dan mengendalikan persenjataan konvensional, mulai dari senjata nuklir, biologi, atau kimia. China saat ini sedang mempercepat komersialisasi robot humanoid, termasuk penerapannya di infrastruktur sensitif seperti jaringan listrik dan pembangkit listrik tenaga nuklir;
  • digunakan untuk memanipulasi atau mengganggu pasar keuangan;
  • dipakai memanipulasi atau mengganggu infrastruktur penting, seperti energi, transportasi, komunikasi, , dll;
  • Penggunaan untuk manipulasi atau mengganggu sistem politik, jaringan sosial, dan ekosistem biologis dan lingkungan;
  • Ancaman langsung terhadap nyawa manusia.

berisiko tinggi

Ada dua perkembangan yang mendorong peningkatan risiko dari sedang menjadi tinggi: multimoda ( multimodal) dan agen (agentic ). multimoda bisa memproses dan mengintegrasikan beberapa jenis input (seperti teks, gambar, audio) untuk menyelesaikan tugas yang lebih kompleks, contohnya adalah GPT-4o, Gemini Ultra, dan Pixtral 12B.

Sementara agen mengacu pada sistem yang mampu merencanakan, bertindak, dan membuat keputusan secara otonom. Saat ini agen tengah berkembang pesat. Perkembangan agen memang mendorong kemajuan AGI, namun berpotensi menjadi bencana ketika sistem ini menjadi tidak terkendali setelah digabungkan dengan teknologi lain.

lainnya adalah perkembangan robot humanoid yang ditenagai oleh generatif. generatif digunakan agar robot humanoid ini bisa beroperasi dan mengambil keputusan secara mandiri. NVIDIA tengah bermitra dengan perusahaan robotika untuk mengembangkan model dasar untuk robot humanoid semacam ini.

Kemajuan teknologi ini memang menarik, namun bisa menjadi ancaman tersembunyi bagi manusia. Pengawasan yang cermat dan manajemen yang bertanggung jawab penting agar penerapan lebih aman dan tidak menjadi ‘senjata makan tuan’.

Pentingnya regulasi

Dalam sejarah, regulasi sering kali keluar lebih lambat dari perkembangan teknologi dan . Saat ini, terdapat sejumlah inisiatif seperti EU Act, California’s SB 1047, dan Council of Europe’s Framework Convention on yang bisa menjadi acuan aturan . Selain aturan dan pemerintah, semua pemangku kepentingan, terutama perusahaan yang mengembangkan model seperti OpenAI, , dan Alphabet, memainkan peran yang sama besar untuk mengurangi risiko .

Untuk praktik keselamatan , sejumlah perusahaan teknologi pengembang telah mencoba menerapkan regulasi pengamanan. OpenAI telah menyediakan Preparedness Framework, Alphabet memiliki Google DeepMind Frontier Safety Framework, dan Anthropic menyiapkan Responsible Scaling Policy (RSP). Berbagai kerangka ini merupakan langkah penting menjaga keselamatan , namun masih diperlukan transparansi dan penegakan langkah praktis yang lebih baik.

Safety Clock (Jam ) ini dibuat untuk meningkatkan kesadaran dan diskusi konstruktif bagi , pembuat , dan pemimpin tentang AI. Jam AI dibuat dengan membuat analisis terhadap teknologi dan pengumuman dari lebih dari 3.500 perusahaan dan pemerintah di seluruh dunia.