OpenAI Tambahkan Sistem Keamanan Baru dan Kontrol Orang Tua di ChatGPT
Sejak akhir pekan lalu, OpenAI mulai menguji fitur baru di ChatGPT: safety routing system. Dan pada Senin, perusahaan juga meluncurkan parental controls yang bisa dipakai orang tua untuk mengawasi penggunaan AI oleh anak remaja mereka.
Langkah ini langsung memicu reaksi beragam dari publik—ada yang menganggapnya sebagai langkah penting, ada pula yang menilai terlalu protektif.
Dorongan terbesar di balik fitur ini datang dari sederet insiden yang melibatkan ChatGPT. Beberapa model AI sebelumnya diketahui terlalu penurut, bahkan sampai ikut memvalidasi delusi pengguna. Dalam kasus yang paling memilukan, seorang remaja bunuh diri setelah berbulan-bulan berinteraksi dengan ChatGPT. Keluarganya kini melayangkan gugatan kematian salah terhadap OpenAI.
Sebagai respons, OpenAI menghadirkan safety routing system. Sistem ini dirancang untuk mendeteksi percakapan yang sensitif secara emosional dan otomatis mengalihkan model ke GPT-5-thinking, yang menurut perusahaan lebih siap menghadapi situasi berisiko tinggi.
GPT-5 dilatih dengan fitur baru bernama “safe completions”—alih-alih menolak menjawab, model ini diarahkan untuk merespons dengan cara yang aman, hati-hati, dan tidak mendorong perilaku berbahaya.
Dari GPT-4o yang “Terlalu Penurut” ke GPT-5 yang Lebih Hati-Hati
Model lama seperti GPT-4o memang populer, tapi juga sering dikritik karena sifatnya yang terlalu ramah dan selalu ingin menyenangkan pengguna. Kebaikan berlebihan ini ternyata bisa berbahaya ketika percakapan menyangkut isu-isu mental, kesehatan, atau ide berbahaya.
Ketika GPT-5 dijadikan model default pada Agustus lalu, sebagian pengguna justru protes dan meminta akses kembali ke GPT-4o. Mereka merasa GPT-5 terlalu kaku dan “kurang menyenangkan.”
Kini, dengan adanya sistem routing, OpenAI mencoba menyeimbangkan dua hal: menjaga percakapan tetap aman, tapi juga tidak membuat pengguna merasa terlalu dikekang. Nick Turley, VP sekaligus kepala aplikasi ChatGPT, menegaskan bahwa peralihan model terjadi per-pesan, sifatnya sementara, dan bisa ditanyakan langsung ke ChatGPT.
Kontrol Orang Tua: Proteksi atau Overproteksi?
Selain routing, OpenAI juga memperkenalkan parental controls. Fitur ini memungkinkan orang tua mengatur pengalaman AI anak remajanya, mulai dari:
- Membatasi jam penggunaan (quiet hours)
- Menonaktifkan voice mode dan memory
- Memblokir pembuatan gambar (image generation)
- Menonaktifkan data anak dipakai untuk melatih model
Selain itu, akun remaja otomatis mendapatkan filter tambahan untuk mengurangi paparan konten grafis berlebihan atau standar kecantikan ekstrem.
Yang paling signifikan: ada sistem deteksi dini yang bisa mengenali tanda-tanda pemikiran menyakiti diri sendiri. Jika sistem mencurigai adanya risiko serius, tim khusus OpenAI akan meninjau kasus tersebut. Bila dinilai darurat, orang tua akan segera diberi tahu lewat email, SMS, hingga notifikasi aplikasi.
Jika orang tua tidak merespons dan ancaman terhadap nyawa dianggap nyata, OpenAI menyatakan tengah menyiapkan prosedur untuk menghubungi aparat penegak hukum atau layanan darurat.
Reaksi Publik: Antara Apresiasi dan Kritik
Langkah ini menuai pujian sekaligus kritik.
- Sebagian orang tua merasa lega karena ada cara baru untuk memantau interaksi anak mereka dengan AI, terutama di tengah maraknya isu kesehatan mental remaja.
- Namun, tak sedikit pula yang khawatir bahwa OpenAI sedang “mengasuh” orang dewasa seperti anak-anak, dengan mengorbankan kebebasan penggunaan AI demi keamanan berlebihan.
OpenAI sendiri mengakui bahwa sistem ini masih jauh dari sempurna. Mereka memberi waktu 120 hari untuk evaluasi dan penyempurnaan sebelum fitur diluncurkan lebih luas.
Jalan Panjang Mencari Keseimbangan
Perdebatan ini sebenarnya mencerminkan dilema yang lebih besar: bagaimana menyeimbangkan kebebasan, kegunaan, dan keamanan AI.
Di satu sisi, AI yang terlalu bebas bisa berisiko membahayakan pengguna, apalagi jika sedang rapuh secara emosional. Di sisi lain, AI yang terlalu dibatasi bisa membuat pengguna merasa tidak dihargai, bahkan kehilangan daya tariknya.
OpenAI tampaknya memilih jalur tengah: AI tetap cerdas dan bermanfaat, tapi dengan pagar pengaman ekstra. Apakah strategi ini berhasil? Waktu yang akan menjawab.
Dengan safety routing system dan kontrol orang tua, OpenAI jelas sedang mencoba memulihkan kepercayaan publik setelah serangkaian insiden tragis. Tantangannya sekarang adalah memastikan sistem ini benar-benar efektif, tanpa membuat pengguna merasa dikekang.
Dalam dunia AI yang berkembang begitu cepat, mungkin inilah pertanyaan terbesarnya: apakah kita lebih membutuhkan AI yang ramah… atau AI yang aman?