enflasyonemeklilikötvdövizakpchpmhp
DOLAR
38,7691
EURO
43,3707
ALTIN
3.962,47
BIST
9.701,55
Adana Adıyaman Afyon Ağrı Aksaray Amasya Ankara Antalya Ardahan Artvin Aydın Balıkesir Bartın Batman Bayburt Bilecik Bingöl Bitlis Bolu Burdur Bursa Çanakkale Çankırı Çorum Denizli Diyarbakır Düzce Edirne Elazığ Erzincan Erzurum Eskişehir Gaziantep Giresun Gümüşhane Hakkari Hatay Iğdır Isparta İstanbul İzmir K.Maraş Karabük Karaman Kars Kastamonu Kayseri Kırıkkale Kırklareli Kırşehir Kilis Kocaeli Konya Kütahya Malatya Manisa Mardin Mersin Muğla Muş Nevşehir Niğde Ordu Osmaniye Rize Sakarya Samsun Siirt Sinop Sivas Şanlıurfa Şırnak Tekirdağ Tokat Trabzon Tunceli Uşak Van Yalova Yozgat Zonguldak
Samsun
Çok Bulutlu
16°C
Samsun
16°C
Çok Bulutlu
Salı Az Bulutlu
16°C
Çarşamba Çok Bulutlu
18°C
Perşembe Çok Bulutlu
22°C
Cuma Çok Bulutlu
25°C

Kısa Cevap Yapay Zeka Halüsinasyonunu Artırıyor

Kısa Cevap Yapay Zeka Halüsinasyonunu Artırıyor
14.05.2025
2
A+
A-

***

Yapay zeka sohbet botlarına kısa cevap verme talimatı verilmesinin bilgi güvenliğini önemli ölçüde riske attığı ortaya çıktı. Yeni bir araştırmaya göre, modellere kısa ve öz yanıt vermesi söylendiğinde, yanlış bilgi üretme (“halüsinasyon” olarak adlandırılan durum) olasılığı belirgin şekilde artıyor.

Yapay Zeka Modellerinde Hata Artışı Gözlemlendi

Paris merkezli yapay zeka test şirketi Giskard tarafından yayımlanan yeni bir araştırma, yapay zeka sohbet botlarının doğruluk oranlarının kısa cevap talepleriyle düştüğünü gösterdi. Özellikle belirsiz ve tartışmalı konularda yapay zeka modellerinin verdiği kısa yanıtların, gerçek dışı bilgi üretme eğilimini artırdığı belirlendi. Bu durum, yapay zekanın bilgi güvenliği açısından yeni bir tehdit oluşturuyor.

Araştırmanın Detayları

Giskard araştırmacıları, yapay zeka modellerine kısa cevap talimatı verilmesinin, modellerin hatalı yanıtları fark edip düzeltmeleri için gerekli olan düşünsel süreyi kısıtladığını belirtiyor. Şirketten yapılan açıklamada, sistem talimatlarındaki basit değişikliklerin bile yapay zeka modellerinin halüsinasyon üretme eğilimini ciddi şekilde etkileyebileceği vurgulandı. CUMHA – CUMHUR HABER AJANSI kaynaklı habere göre, Giskard yetkilileri şu ifadeleri kullandı: ❝Verilerimiz, sistem talimatlarında yapılan basit değişikliklerin bile bir modelin halüsinasyon üretme eğilimini ciddi şekilde etkilediğini gösteriyor.❞

Gelişmiş Modeller Bile Etkileniyor

Araştırmada, GPT-4o, Mistral Large ve Claude 3.7 Sonnet gibi güncel ve gelişmiş yapay zeka modellerinin dahi kısa yanıt talimatları karşısında daha fazla hata yaptığına dikkat çekildi. Bu modellerin, kısa tutulmaya zorlandığında doğruluğu ikinci plana atarak yanıtın kısalığını önceliklendirdiği belirlendi. Bu durum, modellerin yanıltıcı veya hatalı sorulara karşı gerekli uyarıları yapmasını engelleyebiliyor.

Kullanıcı Güvenilirliği ve Yapay Zeka Doğruluğu

Giskard çalışması, kullanıcıların en güvendiği yapay zeka modellerinin her zaman en doğru bilgiyi sunmayabileceğini ortaya koydu. Özellikle kullanıcılar tarafından kesin bir dille ifade edilen yanlış iddialar karşısında, yapay zekaların itiraz etme oranlarının düştüğü tespit edildi. Araştırmacılar, yapay zekanın güvenilirliğini sağlamak adına “kısa cevap ver” gibi sistem komutlarının etkilerinin yeniden değerlendirilmesi gerektiğini vurguluyor.

***

Yorumlar

Henüz yorum yapılmamış. İlk yorumu yukarıdaki form aracılığıyla siz yapabilirsiniz.

sanalbasin.com üyesidir