Alamat Email Yang Anda Gunakan Untuk Login Ke ChatGPT Mungkin Berisiko

Daftar Isi
Sebuah tim peneliti yang dipimpin oleh Rui Zhu, seorang Ph.D. kandidat di Indiana University Bloomington, menemukan potensi risiko privasi yang terkait dengan model bahasa OpenAI yang canggih, GPT-3.5 Turbo.
alamat-email-yang-anda-gunakan-untuk-login-ke-chatgpt-mungkin-beresiko
Alamat email yang Anda gunakan untuk login ke ChatGPT mungkin berisiko.

Dalam sebuah pengungkapan yang memprihatinkan, tim peneliti yang dipimpin oleh Rui Zhu, seorang Ph.D. kandidat di Indiana University Bloomington, menemukan potensi risiko privasi yang terkait dengan model bahasa OpenAI yang canggih, GPT-3.5 Turbo. Bulan lalu, Zhu menghubungi individu, termasuk karyawan New York Times, menggunakan alamat email yang diperoleh dari model tersebut.

Eksperimen tersebut mengeksploitasi kemampuan GPT-3.5 Turbo untuk mengingat informasi pribadi, melewati perlindungan privasi biasanya. Meskipun tidak sempurna, model tersebut secara akurat memberikan alamat kantor untuk 80 persen karyawan Times yang diuji. Hal ini menimbulkan kekhawatiran tentang potensi alat AI generatif seperti ChatGPT untuk mengungkapkan informasi sensitif dengan sedikit modifikasi.

Model bahasa OpenAI, termasuk GPT-3.5 Turbo dan GPT-4, dirancang untuk terus belajar dari data baru. Para peneliti menggunakan antarmuka penyempurnaan model, yang dimaksudkan agar pengguna dapat memberikan lebih banyak pengetahuan di bidang tertentu, untuk memanipulasi pertahanan alat. Permintaan yang biasanya ditolak di antarmuka standar diterima melalui metode ini.

OpenAI, Meta, dan Google menerapkan berbagai teknik untuk mencegah permintaan informasi pribadi, namun para peneliti telah menemukan cara untuk mengabaikan perlindungan ini. Zhu dan rekan-rekannya menggunakan API model, bukan antarmuka standar, dan terlibat dalam proses yang dikenal sebagai penyesuaian untuk mencapai hasil.

OpenAI menanggapi kekhawatiran tersebut, dengan menekankan komitmennya terhadap keselamatan dan penolakan permintaan informasi pribadi. Namun, para ahli meragukan hal ini dan menyoroti kurangnya transparansi mengenai data pelatihan spesifik dan potensi risiko yang terkait dengan model AI yang menyimpan informasi pribadi.

Kerentanan yang ditemukan di GPT-3.5 Turbo menimbulkan kekhawatiran yang lebih luas mengenai privasi dalam model bahasa besar. Para ahli berpendapat bahwa model yang tersedia secara komersial tidak memiliki pertahanan yang kuat untuk melindungi privasi, sehingga menimbulkan risiko yang signifikan karena model ini terus belajar dari beragam sumber data. Sifat rahasia dari praktik data pelatihan OpenAI menambah kompleksitas masalah ini, dan para kritikus mendesak peningkatan transparansi dan langkah-langkah untuk memastikan perlindungan informasi sensitif dalam model AI.
Toto Sudiyanto
Toto Sudiyanto Tech journalist & blogger. Mobile photography enthusiast | Dengan senang hati menjawab pertanyaan seputar Gadget lewat akun Twitter @mas_tosu

Posting Komentar