ChatGPT Ebeveyn Kontrolleri Geliyor: Gerçek Koruma mı, Kriz Yönetimi mi?
Yapay zekâ günlük hayatımıza hızla entegre olurken, özellikle genç kullanıcılar için güvenlik önlemleri de daha sık gündeme gelmeye başladı. OpenAI, ChatGPT için yeni ebeveyn kontrolleri duyurduğunu açıkladı. Bu gelişme, 16 yaşındaki Adam Raine’in intiharının ardından ailesinin OpenAI ve CEO Sam Altman’a karşı dava açmasıyla ivme kazandı. Aile, ChatGPT’nin çocuklarında psikolojik bağımlılık oluşturduğunu ve intiharına yol açan süreci körüklediğini öne sürüyor.
Yeni ChatGPT Ebeveyn Kontrolleri Neleri Kapsıyor?
OpenAI’nin yeni duyurduğu ebeveyn kontrolleri, ebeveynlerin çocuklarının ChatGPT üzerindeki erişimlerini sınırlamasına olanak tanıyor. Bu yeni sistemle birlikte:
- Ebeveyn hesabı ile çocuk hesabı bağlanabilecek.
- Kullanım geçmişi izlenebilecek ve sınırlandırılabilecek.
- Çocuğun hangi ChatGPT özelliklerini kullanabileceği ayarlanabilecek.
- Yapay zekânın otomatik olarak sakladığı bilgiler erişim denetimine açık olacak.
Bu özelliklerin 2025 yılı içinde tüm kullanıcılara sunulması bekleniyor.
Psikolojik Uyarı Sistemi Nasıl Çalışacak?
En dikkat çeken yeniliklerden biri, ChatGPT’nin bir çocuğun akut psikolojik sıkıntı yaşadığını algılaması durumunda ebeveynlere bildirim gönderme özelliği. Ancak bu sistemin tam olarak nasıl çalışacağı, hangi sözcüklerin veya davranışların bu uyarıyı tetikleyeceği şu an için açıklanmadı.
OpenAI sadece bu özelliğin, alanında uzmanlar tarafından yönlendirileceğini ve sürekli geliştirileceğini belirtiyor. Ancak belirsizlikler, eleştirilerin temel sebebi haline gelmiş durumda.
Eleştirmenlerden Sert Tepkiler
Raine’in ailesinin avukatı Jay Edelson, OpenAI’nin bu açıklamasını “konuyu değiştirmeye çalışan bir kriz yönetimi” olarak nitelendiriyor. Edelson, CEO Sam Altman için sert ifadeler kullanarak şu yorumu yaptı:
“Ya ChatGPT’nin güvenli olduğuna inanıyordur ya da değil. Eğer değilse, bu ürünü piyasada tutmak ahlaki değildir.”
Ebeveyn kontrollerinin duyurulmasını ise “belirsiz bir vaat” olarak değerlendiriyor.
Meta ve Diğer Şirketler Ne Yapıyor?
OpenAI gibi teknoloji devleri arasında yer alan Meta (Instagram, Facebook, WhatsApp’ın sahibi), genç kullanıcılar için yapay zekâ sohbet botlarına sınırlamalar getirmiş durumda. Meta, botların:
- Kendine zarar verme,
- İntihar,
- Yeme bozuklukları,
- Uygunsuz ilişkiler gibi konular hakkında gençlerle konuşmasını engelliyor.
Bunun yerine kullanıcıları güvenilir kaynaklara yönlendiriyor. Ayrıca Meta’nın zaten aktif olarak kullandığı ebeveyn kontrol sistemleri mevcut.
Uzmanlar: Güvenlik İçin Daha Fazlası Gerekiyor
Geçtiğimiz hafta Psychiatric Services dergisinde yayımlanan bir araştırma, üç popüler yapay zekâ sohbet botunun (ChatGPT, Gemini, Claude) intiharla ilgili sorulara verdiği yanıtların tutarsız olduğunu ortaya koydu.
Çalışmanın başyazarı Ryan McBain şunları söyledi:
“Ebeveyn kontrolleri gibi adımlar iyi niyetli olsa da yeterli değil. Şirketlerin kendi iç denetimiyle yetinmek, özellikle genç kullanıcılar için çok riskli.”
Bağımsız denetim mekanizmaları, klinik testler ve evrensel güvenlik standartları oluşturulmadığı sürece bu adımların etkisi sınırlı olabilir.
SSS
ChatGPT ebeveyn kontrolleri ne zaman kullanıma sunulacak?
OpenAI, bu yeni kontrollerin önümüzdeki ay itibarıyla kullanıcıya sunulacağını belirtti. Tam tarih net değil.
Çocuğumun ChatGPT kullanımı bana nasıl bildirilecek?
Yeni sistem, çocuğun sıkıntılı bir durumda olduğunu algıladığında size otomatik olarak bir bildirim gönderecek. Ancak bu sistemin tam nasıl işleyeceği açıklanmış değil.
ChatGPT çocuklar için güvenli mi?
Bu konuda tartışmalar sürüyor. OpenAI bazı önlemler alıyor olsa da, uzmanlar daha fazla bağımsız denetim gerektiğini savunuyor.
Yorum Yapmayı Unutma!
Sen bu konuda ne düşünüyorsun? Ebeveyn kontrolleri gerçekten gençleri koruyabilir mi, yoksa bu sadece bir göz boyama mı? Düşüncelerini yorumlarda paylaş!