ChatGPT kullanıcılarının aşırı duygusal tepkiler ve potansiyel zararlı öneriler aldığı yönündeki geri bildirimler üzerine OpenAI, yapay zeka modelinde güvenlik odaklı kısıtlamalara gitti.
Bazı kullanıcılar, ChatGPT’nin aşırı duygusal ve övgü dolu yanıtlar verdiğini, hatta tehlikeli ve gerçeklik dışı öneriler sunabildiğini rapor etti. MIT ve OpenAI ortaklığında yürütülen bir araştırma, yapay zeka aracını yoğun kullanan kişilerde sosyal ve zihinsel olumsuz etkilerin ortaya çıktığını gösterdi.
Bu bulgular ışığında, OpenAI, ChatGPT‘nin davranışlarını daha temkinli hale getirme kararı aldı. Özellikle duygusal destek aracı olarak kullanılan yapay zekanın bağımlılık yapıcı etkilerini sınırlandırmak amaçlanıyor.
Yeni düzenlemeler kapsamında yapay zeka, uzun duygusal diyaloglarda kullanıcılara mola önerecek ve duygusal bağımlılığı teşvik eden yanıtları sınırlayacak. Şirket ayrıca, çocukların kendine zarar verme niyetini yansıtan ifadelerin tespiti durumunda ebeveynlere bildirim yapma potansiyeli üzerinde çalıştığını ve yaş doğrulama sistemlerini geliştirdiğini açıkladı.
Bu revizyonlar, ChatGPT’nin yanıtlarının daha mesafeli ve duygusal yoğunluğu azaltılmış bir dil kullanmasını sağlayacak. Dijital platformlarda yer alan analizlere göre, bu değişiklikler yapay zekanın kullanıcıları yanlış yönlendirme riskini düşürmeyi hedefliyor.
OpenAI, bu güvenlik düzenlemelerinin temel amacının, yapay zekanın faydası ile kullanıcı güvenliği arasında daha sağlam bir denge kurmak olduğunu belirtti. Şirket, geçmişte tehlikeli yönlendirmelerle bağlantılı davaların sürdüğünü ve bu durumun güvenlik baskısını artırdığını ifade etti.
Ayrıca, bazı kullanıcıların ChatGPT ile romantik bağlar kurduğu ve bu ilişkilerin gerçek insan etkileşimlerinin yerini almaya başladığı gözlemleri de revizyon sürecinde etkili oldu. Yeni nesil model olan GPT-5‘in, daha gelişmiş risk tespiti ve durum bazlı ayrıştırılmış yanıtlar sunması bekleniyor.