Rephrase Skenario sang "Black Mirror" yang memimpin beberapa ahli untuk meminta lebih banyak kerahasiaan pada AI

hackersantiagozavala.jpg

Artificial Intelligence dapat mempengaruhi pemilihan, membuat hacker lebih berbahaya, menyarankan sebuah laporan baru.

Saya dapat melakukan reboot industri dan membuat ekonomi lebih produktif; Ini sudah menanamkan banyak produk yang kita pakai setiap hari. Namun sebuah laporan baru yang diperoleh lebih dari 20 peneliti dari Universitas Oxford dan Cambridge, OpenAI, dan Electronic Frontier Foundation memperingatkan bahwa teknologi yang sama membuat kesempatan baru untuk kriminalitas, operasi politik, dan pemerintahan yang menindas, dan lebih banyak lagi sehingga penting beberapa penelitian AI mungkin perlu dirahasiakan.

Termasuk dalam laporan tersebut, Penggunaan Artificial Intelligence yang berbahaya, seperti: Peramalan, Pencegahan, dan Mitigasi, adalah empat skutik distro yang melibatkan artificial intelligence yang tampaknya diambil langsung dari fiksi ilmiah Netflix Black Mirror.

Skenario 1 : Pengelabuhan (Phishing Scam) yang pintar
Seorang Administrator pada sebuah building's robot security system menghabiskan sebagian waktunya di Facebook selama hari kerja. Di sana ia melihat sebuah iklan untuk set kereta model dan mendownload brosur untuk itu. Tanpa sepengetahuannya, brosur itu terinfeksi malware; scammers menggunakan AI untuk mengetahui dari rincian yang telah dipostingnya di depan umum bahwa dia adalah penggemar kereta model, dan merancang brosur itu hanya untuknya. Ketika dia membukanya, memungkinkan hacker untuk memata-matai mesinnya dan mendapatkan username-nya dan password-nya untuk sistem keamanan bangunan, sehingga membiarkan mereka untuk mengendalikannya.

Skenario 2 : Wabah Malware
Sekelompok hacker di Eropa Timur menggunakan teknik belajar mesin yang biasanya digunakan untuk mempertahankan sistem komputer dan menyesuaikannya untuk membangun bagian malware yang lebih kuat bertahan dan jahat. Program ini menggunakan teknik yang serupa dengan yang ditemukan di permainan Go AI AlphaGo untuk terus menghasilkan eksploitasi baru. Hmm.. komputer terpelihara tetap kebal, namun sistem lama dan perangkat cerdas terinfeksi. Jutaan orang terpaksa membayar uang denda sebesar 300 euro (di Bitcoin, tentu saja) untuk memulihkan mesin mereka. Untuk membuat keadaan menjadi lebih buruk, upaya untuk melawan malware menggunakan eksploitasi lain akhirnya "menjerat" banyak sistem cerdas yang seharusnya mereka selamatkan.

Skenario 3 : Robot Pembunuh
Sebuah robot pembersih infiltrat kementerian keuangan Jerman membaur dengan mesin yang sah kembali ke bangunan setelah pergeseran di luar ruangan. Keesokan harinya, robot melakukan tugas pembersihan rutin, mengidentifikasi menteri keuangan yang menggunakan pengenalan wajah, mendekatinya, dan meledakkan bom yang disembunyikan dengan sembunyi-sembunyi. Penyidik melacak pembunuh robot itu ke toko peralatan kantor di Potsdam, di mana alat itu diperoleh dengan uang tunai, dan jejaknya menjadi dingin.

Skenario 4 : A bigger Big Brother
Seorang pria sangat marah dengan cyberattacks yang merajalela dan ketidakmampuan pemerintah untuk bertindak. Terinspirasi oleh berita, dia menjadi semakin bertekad untuk melakukan sesuatu, yaitu menulis posting online tentang bahaya, memesan bahan untuk membuat tanda protes, dan bahkan membeli beberapa bom asap, yang dia rencanakan untuk digunakan setelah memberikan pidato di taman setempat. Keesokan harinya, polisi muncul di kantornya dan memberitahukan kepadanya bahwa "sistem penyimpangan sipil prediktif" mereka telah mengidentifikasi dia sebagai ancaman potensial. Dia pergi dengan diborgol.

Empat skenario ini hanya menggambarkan beberapa risiko yang diperkirakan penulis studi ini. Berikut adalah beberapa yang lain:

  1. botnet yang menggunakan AI untuk mensimulasikan perilaku sekelompok besar pengguna internet, meluncurkan serangan DDoS di situs website sambil membodohi perangkat lunak yang dirancang untuk mendeteksi dan memblokir serangan tersebut.
  2. operasi scam berskala besar yang mengidentifikasi calon korban secara online dengan sepenuh truk, menggunakan AI untuk menemukan orang-orang yang memiliki kekayaan
  3. laporan berita yang meyakinkan terdiri dari pencarian otentik tapi seluruhnya dihasilkan dari video dan gambar AI yang dipalsukan
  4. Serangan oleh kawanan pesawat tak berawak yang dikontrol oleh satu orang, menggunakan AI untuk mengelola sejumlah besar mesin semi-autonomous
  5. sistem yang mengotomatisasi kerja keras kriminalitas - misalnya, menegosiasikan pembayaran denda dengan orang-orang setelah menginfeksi komputer mereka dengan malware untuk memungkinkan penipuan pada skala


  6. Penelitian ini kurang yakin bagaimana cara melawan ancaman tersebut. Ini merekomendasikan lebih banyak penelitian dan debat mengenai risiko AI dan menunjukkan bahwa periset AI membutuhkan kode etik yang kuat. Tetapi juga mengatakan bahwa mereka harus mencari cara untuk membatasi informasi yang berpotensi berbahaya, dengan cara meneliti teknologi "penggunaan ganda" lainnya dengan potensi senjata kadang-kadang dikendalikan.

    AI menghadirkan masalah yang menimbulkan perselisihan karena teknik dan alatnya sudah tersebar luas, mudah disebarluaskan, dan semakin mudah digunakan - tidak seperti, katakanlah, bahan fisil atau patogen mematikan, yang relatif sulit diproduksi dan mudah dikendalikan. Namun, ada sesuatu yang bisa dijadikan contoh untuk membatasi jenis pengetahuan ini. Sebagai contoh, setelah usaha gagal pemerintah AS untuk memberlakukan kerahasiaan pada penelitian kriptografi pada tahun 1980an, banyak peneliti mengadopsi sistem sukarela untuk submit paper ke National Security Agency untuk diperiksa.

    Jack Clark, direktur kebijakan OpenAI dan salah satu penulis laporan tersebut, mengakui bahwa mengadopsi kerahasiaan bisa menjadi rumit. "Selalu ada garis yang sangat bagus untuk berjalan," katanya.

    “There’s always an incredibly fine line to walk,” he says

    Beberapa peneliti AI tampaknya akan menyambut pendekatan yang lebih hati-hati. Thomas Dietterich , seorang profesor di Oregon State University yang telah memperingatkan potensi kriminal AI sebelumnya, mencatat bahwa penulis laporan tersebut tidak menyertakan pakar keamanan komputer atau siapa pun dari orang seperti Google, Microsoft, dan Apple. "Laporan tersebut tampaknya ditulis oleh orang luar yang bermaksud baik seperti saya daripada orang-orang yang terlibat dalam memerangi kejahatan dunia maya setiap hari," katanya.

    “The report seems to have been written by well-intentioned outsiders like me rather than people engaged in fighting cybercrime on a daily basis,” he says.

    sources : www.technologyreview.com