Perusahaan Teknologi Yang Tergabung A1 Merosot

- Advertisement -
Inggris- Beberapa perusahaan teknologi, yang tergabung pada AI terjebak dalam,’perlombaan menuju titik terbawah’,(21/9/2023).

Profesor MIT memperingatkan
Fisikawan Max Tegmark. Dia mengatakan persaingan terlalu ketat bagi para eksekutif teknologi, untuk menghentikan sementara pengembangan guna mempertimbangkan risiko AI.

Ilmuwan di balik surat penting yang menyerukan tunggu.. dalam pengembangan sistem kecerdasan buatan yang kuat.

Ilmuwan mengatakan para eksekutif teknologi, tidak menghentikan pekerjaan mereka karena mereka terjebak dalam “perlombaan menuju titik terbawah”.

Max Tegmark, salah satu pendiri Future of Life Institute, mengadakan surat terbuka pada bulan Maret, yang menyerukan jeda enam bulan dalam pengembangan sistem AI raksasa.

Meskipun mendapat dukungan dari lebih dari 30.000 penandatangan, termasuk Elon Musk dan salah satu pendiri Apple Steve Wozniak.

Dokumen tersebut gagal menghentikan, pengembangan sistem yang paling ambisius.

Berbicara kepada Guardian enam bulan kemudian, Tegmark mengatakan dia tidak menyangka surat tersebut.

Akan menghentikan perusahaan teknologi untuk mengembangkan, model AI yang lebih canggih’,dari GPT-4, model bahasa besar yang mendukung ChatGPT , karena persaingan menjadi begitu ketat.

Saya merasa bahwa secara pribadi banyak pemimpin perusahaan, yang saya ajak bicara menginginkan menunggu, tetapi mereka terjebak dalam perlombaan.

Menuju titik terbawah melawan satu sama lain. Jadi tidak ada perusahaan yang bisa berhenti sendiri,” ujarnya.

Surat tersebut memperingatkan adanya “perlombaan di luar kendali” untuk mengembangkan pemikiran yang tidak seorang pun dapat “memahami.

Seperti memprediksi, atau mengendalikan secara andal”, dan mendesak pemerintah untuk melakukan intervensi.

Jika moratorium pengembangan sistem yang lebih kuat, dari GPT-4 tidak dapat dilaksanakan.

Disepakati antara perusahaan AI, terkemuka seperti Google , pemilik ChatGPT OpenAI dan Microsoft.

Pertanyaannya adalah: “Haruskah kita mengembangkan pemikiran, yang bukan manusia yang mungkin pada akhirnya akan melebihi jumlah kita, mengakalinya, menjadi usang dan menggantikan kita?

BACA JUGA  Mata Uang Yen Jepang Posisi Terpuruk

Haruskah kita mengambil risiko, kehilangan kendali atas peradaban kita?”

Tegmark, seorang profesor fisika di Massachusetts Institute of Technology, menilai surat itu sukses.

“Surat ini mempunyai dampak yang lebih besar dari yang saya kira,” katanya, menunjuk pada kebangkitan politik mengenai AI.

Yang mencakup dengar pendapat Senat AS dengan para eksekutif teknologi dan pemerintah Inggris.

Mereka yang mengadakan pertemuan, puncak global mengenai keselamatan AI pada bulan November.

Mengekspresikan kekhawatiran mengenai AI, telah berubah dari tabu menjadi pandangan umum sejak surat tersebut diterbitkan, kata Tegmark.

Surat dari lembaga pemikirnya tersebut diikuti pada bulan Mei, dengan pernyataan dari Pusat Keamanan AI, yang didukung oleh ratusan eksekutif teknologi dan akademisi.

Dalam pernyataannya yang menyatakan, bahwa AI harus dianggap sebagai risiko sosial, yang setara dengan pandemi dan perang nuklir .

“Saya merasa ada banyak kecemasan terpendam mengenai kemajuan AI, yang membuat orang-orang di seluruh dunia.

Takut untuk mengungkapkannya, karena takut dianggap sebagai orang yang suka menakut-nakuti.

Surat itu melegitimasi pembicaraan tentang hal itu; surat itu membuatnya dapat diterima secara sosial.

“Jadi orang-orang seperti (penandatangan surat) Yuval Noah Harari mengatakan hal yang sama, Anda mulai mendapatkan pertanyaan-pertanyaan sulit yang diajukan para politisi,” kata Tegmark.

Menurutnya, lembaga think tanknya meneliti ancaman-ancaman eksistensial dan, potensi manfaat dari teknologi mutakhir.

Kekhawatiran seputar perkembangan AI berkisar, dari hal yang bersifat langsung, seperti kemampuan untuk menghasilkan video deepfake, dan memproduksi disinformasi secara massal.

Hingga risiko eksistensial, yang ditimbulkan oleh AI super cerdas. Yang menghindari kendali manusia atau, membuat keputusan yang tidak dapat diubah dan sangat penting.

Tegmark memperingatkan agar tidak menggambarkan perkembangan digital “kecerdasan umum seperti dewa” sebagai ancaman jangka panjang, mengutip beberapa praktisi AI yang percaya hal itu bisa terjadi dalam beberapa tahun.

BACA JUGA  Hak Aborsi Menjadi Isu Dalam Pemilihan Presiden

Ilmuwan keturunan Swedia-Amerika ini mengatakan, puncak pertemuan keselamatan AI di Inggris pada bulan November, yang akan diadakan di Bletchley Park, adalah “hal yang luar biasa”.

Lembaga pemikirnya mengatakan, KTT tersebut harus menargetkan tiga pencapaian: membangun pemahaman bersama tentang, tingkat keparahan risiko yang ditimbulkan oleh AI.

Dia menyadari bahwa diperlukan respons global yang terpadu; dan menerima perlunya intervensi pemerintah yang mendesak.

Dia menambahkan bahwa jeda dalam pengembangan masih diperlukan sampai standar keselamatan global yang disepakati terpenuhi.

Membuat model lebih bertenaga dibandingkan yang kita miliki sekarang, hal ini harus ditunda sampai mereka dapat memenuhi standar keselamatan yang disepakati.”

Dia menambahkan: “Menyepakati standar keselamatan secara alami akan menyebabkan jeda.”

Tegmark juga mendesak pemerintah untuk mengambil tindakan, terhadap model AI sumber terbuka yang dapat diakses dan diadaptasi oleh masyarakat.

Meta milik Mark Zuckerberg baru-baru ini merilis, model bahasa besar bersumber terbuka, yang disebut Llama 2, dan diperingatkan oleh salah satu pakar Inggris.

Bahwa langkah seperti itu serupa dengan “memberi orang-orang templat untuk membuat bom nuklir”.

“Teknologi berbahaya tidak boleh bersifat open source, terlepas dari apakah itu senjata biologis atau perangkat lunak,” kata Tegmark.

Dikutip dari The Guardian.

- Advertisement -
Must Read
- Advertisement -
Related News

TINGGALKAN KOMENTAR

Silakan masukkan komentar anda!
Silakan masukkan nama Anda di sini