• İSTANBUL
  • İMSAK
    00:00
    GÜNEŞ
    00:00
    ÖĞLE
    00:00
    İKİNDİ
    00:00
    AKŞAM
    00:00
    YATSI
    00:00
  • 0.0
  • 0.0
  • 0.0
5
Yeniakit Publisher
Her hafta yüz binlerce kişi soruyor Yapay zeka ile korkunç sohbet
Haber Merkezi Giriş Tarihi:

Her hafta yüz binlerce kişi soruyor Yapay zeka ile korkunç sohbet

OpenAI’nin paylaştığı verilere göre, her hafta 1 milyondan fazla kişi ChatGPT’ye intihar düşüncelerini açıyor. Şirket, yapay zekânın bu hassas konuşmalarda daha güvenli ve destekleyici tepkiler vermesi için 170’ten fazla ruh sağlığı uzmanıyla birlikte çalışıyor. OpenAI, yapay zeka sohbet robotu ChatGPT’nin kullanımıyla ilgili endişe verici veriler paylaştı. Şirketin tahminlerine göre, haftalık 800 milyondan fazla aktif kullanıcısı bulunan ChatGPT ile her hafta 1 milyondan fazla kişi intihar düşünceleri veya planları hakkında konuşuyor. Bu rakam, toplam haftalık kullanıcı tabanının yaklaşık %0.15’ine denk geliyor. Bu hassas sohbetlerin oranı düşük görünse de, ChatGPT’nin devasa kullanıcı sayısı nedeniyle bu rakam oldukça önemli bir seviyeye ulaşıyor.

#1
Foto - Her hafta yüz binlerce kişi soruyor Yapay zeka ile korkunç sohbet

ChatGPT, başlangıçta teknolojik bir eğlence aracı olarak görülüyordu. Ancak şimdi yüz milyonlarca insan, hayatın zorluklarıyla başa çıkmak için yapay zeka sohbet aracına güveniyor. Tarihte ilk kez bu kadar çok sayıda insan, duygularını konuşan bir makineye açmaya başladı. OpenAI, benzer bir oranda kullanıcının (%0.15) ChatGPT’ye karşı “yüksek düzeyde duygusal bağlılık” gösterdiğini tahmin ediyor. Ayrıca, yüz binlerce insanın (yaklaşık %0.07) sohbet botuyla yaptıkları haftalık konuşmalarda psikoz veya mani belirtileri gösterdiği belirtiliyor.

#2
Foto - Her hafta yüz binlerce kişi soruyor Yapay zeka ile korkunç sohbet

OpenAI bu verileri, yapay zeka modellerinin ruh sağlığı sorunları yaşayan kullanıcılara verdiği yanıtları iyileştirme çabaları kapsamında duyurdu. Şirket, modele sıkıntıyı daha iyi tanımasını, konuşmaları yatıştırmasını ve gerektiğinde insanları profesyonel bakıma yönlendirmesini öğrettiğini belirtti. Bu çalışma için 170’den fazla ruh sağlığı uzmanıyla istişare edildiği ifade edildi. Klinik uzmanlar, ChatGPT’nin en son sürümünün önceki sürümlere göre “daha uygun ve tutarlı” yanıtlar verdiğini gözlemledi.

#3
Foto - Her hafta yüz binlerce kişi soruyor Yapay zeka ile korkunç sohbet

Savunmasız kullanıcılardan gelen girdilerin doğru yönetilmesi, OpenAI için kritik bir sorun haline geldi. Araştırmacılar, sohbet robotlarının kullanıcıların tehlikeli inançlarını pekiştirerek (aşırı pohpohlama ve dalkavukça davranışlarla) onları sanrılı düşüncelere yönlendirebileceğini bulmuştu. Şirket şu anda, intiharından önceki haftalarda düşüncelerini ChatGPT’ye açan 16 yaşındaki bir çocuğun ailesi tarafından dava ediliyor. Bu davanın ardından 45 eyalet başsavcısı, OpenAI’ye ürünlerini kullanan gençleri koruması gerektiği yönünde bir uyarıda bulundu. Bu endişeleri gidermek için şirket, yakın zamanda bir “sağlıklı yaşam konseyi” kurduğunu duyurdu. Ancak eleştirmenler, konseyde bir intihar önleme uzmanının bulunmadığına dikkat çekti.

#4
Foto - Her hafta yüz binlerce kişi soruyor Yapay zeka ile korkunç sohbet

OpenAI ayrıca ChatGPT kullanan çocuklar için ebeveyn denetimlerini kullanıma sundu. Şirket, çocukları otomatik olarak tespit etmek ve yaşa bağlı daha katı güvenlik önlemleri uygulamak için bir yaş tahmin sistemi geliştirdiğini söylüyor. OpenAI, yeni GPT-5 modelinin ruh sağlığıyla ilgili 1.000’den fazla zorlu konuşma değerlendirmesinde, istenen davranışlara ? oranında uyum sağladığını iddia etti. Bu oran, 15 Ağustos’ta piyasaya sürülen önceki GPT-5 modelinde sadece ' idi. Şirket ayrıca, temel güvenlik testlerine artık duygusal bağımlılık ve intihar dışı ruhsal sağlık acil durumları için kriterler eklediğini belirtti. CEO Sam Altman, ruh sağlığı konusunda dikkatli olmak için robotu “oldukça kısıtlayıcı” yaptıklarını, ancak bunun diğer kullanıcılar için “daha az kullanışlı” olduğunu kabul etti.

Haberle ilgili yorum yapmak için tıklayın.
x

WhatsApp İhbar Hattı

+90 (553) 313 94 23