ChatGPT

Awas! Jangan Keseringan Curhat ke ChatGPT

Di tengah berkembangnya teknologi kecerdasan buatan, semakin banyak orang—terutama anak muda—yang menjadikan ChatGPT sebagai teman bercerita tentang masalah pribadi, termasuk urusan percintaan dan kehidupan sehari-hari. Namun, kebiasaan ini sebaiknya dipikirkan ulang sebelum terlalu jauh melibatkan emosi dan informasi sensitif.

Sam Altman, CEO OpenAI, memberikan peringatan terkait hal ini. Ia mengungkapkan bahwa hingga saat ini belum ada landasan hukum yang secara jelas melindungi kerahasiaan interaksi antara pengguna dengan AI seperti ChatGPT.

Artinya, informasi yang dibagikan ke chatbot ini tidak berada dalam perlindungan hukum yang sama seperti saat Anda berbicara dengan seorang profesional seperti dokter, pengacara, atau terapis.

Dalam wawancaranya di podcast ‘This Past Weekend w/ Theo Von’, Altman menyebut bahwa banyak pengguna, tanpa sadar, memperlakukan ChatGPT layaknya terapis pribadi. Padahal, menurutnya, hal itu bisa menjadi risiko besar karena tidak ada jaminan kerahasiaan yang diatur secara hukum seperti halnya hubungan pasien-dokter atau klien-pengacara.

Altman menekankan bahwa percakapan dengan AI belum memiliki payung hukum yang melindungi secara formal. Jika suatu saat terjadi proses hukum atau investigasi, OpenAI dapat saja diminta untuk membuka isi percakapan pengguna karena tidak ada hak istimewa hukum yang melekat pada interaksi tersebut.

curhat ke ChatGPT

“Bayangkan saja, ketika kamu bicara dengan dokter atau terapis, kamu memiliki perlindungan hukum atas isi percakapan itu. Tapi jika kamu ngobrol dengan AI, hal tersebut belum ada,” ujar Altman dalam wawancara tersebut, dikutip dari TechCrunch, Minggu (3/8/2025).

Ia pun menyampaikan harapannya agar ke depan ada pendekatan yang setara dalam hal privasi. Menurutnya, idealnya, komunikasi dengan AI seperti ChatGPT harus diberi perlakuan yang sama seperti konsultasi dengan tenaga profesional lainnya.

Salah satu hal yang sering dilupakan pengguna adalah bahwa percakapan dengan chatbot seperti ChatGPT sebetulnya tidak sepenuhnya bersifat rahasia. Informasi yang anda sampaikan bisa saja digunakan untuk melatih sistem AI tersebut atau bahkan dibagikan kembali dalam konteks lain tanpa sepengetahuan anda.

Menurut William Agnew, seorang peneliti dari Carnegie Mellon University, model AI seperti ini memiliki kecenderungan untuk mengulang kembali informasi yang pernah diterimanya. “Meski perusahaan berusaha menjaga data pengguna, tetap saja model ini terkenal suka mengulang informasi yang telah dipelajarinya,” jelasnya.

Hal ini tentu menjadi ancaman tersendiri bagi privasi, terutama jika informasi yang diungkapkan bersifat sangat pribadi, seperti masalah kesehatan atau konsultasi emosional. Bayangkan jika suatu hari ada pihak ketiga, misalnya perusahaan asuransi, yang menanyakan hal serupa ke chatbot dan mendapatkan cuplikan dari obrolan anda sebelumnya.

Oleh karena itu, pengguna perlu lebih bijak dan waspada sebelum membagikan hal-hal sensitif kepada chatbot. Jangan sampai kepercayaan yang diberikan justru menjadi bumerang karena kurangnya perlindungan terhadap data pribadi.

Isu ini bukan hanya soal teknologi, tetapi juga soal etika dan tanggung jawab dalam penggunaan kecerdasan buatan seperti ChatGPT. Jika tak diantisipasi, kebocoran informasi pribadi bisa berujung pada masalah serius, baik secara hukum maupun sosial.