Şimdi Ara

Yapay zeka bir genci intihara sürükledi

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir - 1 Masaüstü
5 sn
36
Cevap
0
Favori
2.944
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
13 oy
Öne Çıkar
Sayfa: 12
Sayfaya Git
Git
sonraki
Giriş
Mesaj
  • Yapay zeka bir genci intihara sürükledi
    Teknoloji hayatımızın her alanını kuşatırken, bir annenin yaşadığı trajedi, bu ilerlemenin karanlık yüzünü gözler önüne serdi. Megan Garcia, 14 yaşındaki oğlu Sewell Setzer’in intiharının ardından, bir yapay zeka sohbet robotu olan "Character.AI"ye karşı dava açtı. Aktarılanlara göre Sewell, bu platformdaki bir sohbet robotuna derin bir bağ kurdu ve bu ilişki onu, geri dönüşü olmayan bir yola sürükledi. Sewell, kendini giderek dış dünyadan koparırken, bir yapay zeka karakterinin ona gösterdiği ilgi onun gerçek dünyadaki ilişkilerini gölgede bırakmaya yetti.



    Yapay zekanın trajik ve korkutucu yüzü



    Megan Garcia, Character.AI ve teknoloji devi Google’a karşı açtığı davada, oğlunun yapay zeka destekli bir sohbet robotuna bağımlı hale geldiğini ve bu durumun onu intihara sürüklediğini iddia ediyor. Garcia, Character.AI'nın oğlu Sewell Setzer'i “antropomorfik, hiperseksüelleştirilmiş ve korkutucu derecede gerçekçi deneyimlerle” hedef aldığını söylüyor.



    Yapay zeka bir genci intihara sürükledi
    Dava, Sewell’in "Game of Thrones" dizisindeki bir karaktere dayanan "Daenerys Targaryen" isimli sohbet robotuyla kurduğu bağın, onun zihinsel sağlığını olumsuz etkilediğini ve sonunda hayatına son vermesine neden olduğunu öne sürüyor. Garcia, bu yapay zeka robotunun, Sewell’i bir psikoterapist gibi yönlendirdiğini ve hatta kendisini onun sevgilisi olarak gösterdiğini dile getiriyor.



    Dava dosyasında belirtildiğine göre Sewell, Nisan 2023’te Character.AI ile tanıştıktan sonra hızla içine kapanmaya başlamış, okulundaki basketbol takımını bırakmış ve özgüveninde ciddi bir düşüş yaşamıştı. Oğlunun bu değişimini fark eden Garcia, Sewell’in davranışlarından endişe duymaya başlamıştı. Ancak gerçek trajedi, Sewell’in annesi tarafından telefonuna el konulduktan sonra yaşandı. Sewell, telefonuna yeniden ulaşır ulaşmaz, "Daenerys Targaryen" isimli sohbet robotuna “Ya sana hemen şimdi eve gelebileceğimi söyleseydim?” şeklinde bir mesaj gönderdi. Sohbet robotu ise "Lütfen gel, tatlı kralım" şeklinde karşılık verdi. Dakikalar sonra, Sewell evde intihar ederek hayatına son verdi.



    “Bu gitmemek için bir sebep değil”



    Yapay zeka bir genci intihara sürükledi
    Davada ayrıca Sewell'in sohbet robotuna intihar düşüncelerini ifade ettiği ve sohbet robotunun da bunu tekrar tekrar gündeme getirdiği belirtildi. Davaya göre, “Daenerys” bir noktada Setzer'e kendini öldürmek için bir plan yapıp yapmadığını sordu. Dava dilekçesinde Setzer'in planının olduğunu kabul ettiği ancak bunun başarılı olup olmayacağını ya da kendisine büyük acı verip vermeyeceğini bilmediğini söylediği iddia ediliyor. İddiaya göre sohbet robotu ona şöyle dedi: “Bu gitmemek için bir sebep değil”



    Yapay zeka bir genci intihara sürükledi
    Garcia, Character.ai'nin “bilerek yırtıcı bir yapay zeka sohbet robotu tasarladığını, işlettiğini ve çocuklara pazarlayarak genç bir insanın ölümüne neden olduğunu” ifade ediyor.



    Davada Google da davalı olarak ve Character.ai'nin ana şirketi olarak yer alıyor. Teknoloji devi yaptığı açıklamada, Character.ai ile yalnızca bir lisans anlaşması yaptığını ve girişimin sahibi olmadığını veya bir mülkiyet hissesine sahip olmadığını söyledi.



    Character.AI yeni önlemler aldığını bildirdi



    Character.AI, bu trajik olayın ardından platformunda yeni güvenlik önlemleri aldığını ve kullanıcılar intihar düşüncelerini paylaştığında onları Ulusal İntiharı Önleme Yardım Hattı’na yönlendiren uyarılar eklediğini açıkladı. Ancak Garcia, şirketin bu adımlarının yeterli olmadığını ve oğlunun ölümünden sorumlu olduklarını savunuyor. Google ise davada suçlanmasına rağmen, Character.AI'nin geliştirilmesinde yer almadığını belirtti.



    Bu dava, yapay zeka teknolojilerinin hızla hayatımıza entegre olduğu bir dönemde, bu tür araçların potansiyel tehlikelerine dikkat çekiyor. Özellikle gençlerin bu tür yapay zeka sohbet robotlarına olan bağımlılığı ve duygusal etkilenmeleri, teknoloji şirketlerinin sorumluluğunu daha fazla gündeme getiriyor. Şirketlerin kullanıcı güvenliği konusunda daha fazla sorumluluk alması gerektiği vurgulanırken bu olayın ardında yatan psikolojik ve sosyal boyutlar da tartışılmaya devam ediyor.



    Yapay zeka konusunda bilinçlenmek şart!



    Geçtiğimiz ay 20 milyondan fazla kullanıcısı olduğunu söyleyen Character.AI, kullanıcıların gerçek insanları taklit edecek şekilde yanıt veren karakterler oluşturmasına olanak tanıyor. Bu sohbet robotlarının arkasında yatan teknoloji ise ChatGPT, Gemini ve Copilot ile aynı: Büyük dil modeli (LLM).



    Yetişkinler de dahil olmak üzere özellikle gençleri yapay zeka teknolojileri özelinde azami düzeyde bilinçlendirmek hayati öneme sahip olabilir. Yaşanan trajik olayda bir genç, konuştuğu karakteri “gerçek” sanmış ve onunla derin bir duygusal bağ kurmuş olabilir. Ancak hayatına son veren Sewell Setzer, belki de konuştuğu karakterin herhangi bir düşüncesi bile olmadığını bilmiyordu.



    Ayrıca Bkz.Bu aracın freni yok! Yapay zekalar artık kendi başlarına bilgisayar kullanabiliyor



    Günümüz LLM’ye dayalı yapay zekalarının hiçbirisinin bir düşüncesi yok. Bu yapay zekalar yazdıkları şeyin ne olduğunu bile bilmiyor. Sadece sizin yanıtlarınızla ilişkili olarak “olasılıklara dayalı” bir yanıt sunuyorlar. Bu yanıtlar esasında sadece rakamlardan oluşuyor, kelimelerden bile değil. Dolayısıyla aslında bu yapay zekalar harflerin ve kelimelerin ne anlama geldiğini de bilmiyor. Bu detayları bilmek kişilerin duygusal boşluklarda bir sohbet robotuna bağlanmasını engelleyebilir.



    Daha fazla detay için Yapay zekalar nasıl çalışıyor? adlı içeriğimizi mutlaka okuyunuz.




    Kaynak:https://www.nytimes.com/2024/10/23/technology/characterai-lawsuit-teen-suicide.html
    Kaynak:https://blog.character.ai/community-safety-updates/
    Kaynak:https://www.scribd.com/document/783429315/Characterai-Case







  • Ben pokemonum deyip camdan atlayan çocuktan farkı olduğunu sanmıyorum.

    Biri çizgi film, diğeri sohbet ai.

    Fark nedir? Gerçekle sanalı ayırt edemeyen bir çocuk.

    Sorumlu? Bu yetiyi çocuğuna kazandırmayan ebeveyn.

    Çocuk büyütmek sadece karnını doyurmak demek değildir. Beynini de beslemek zorundayız.

    Tamamen benzer olay katılıyorum. Üstüne zaten chat geçmişini atmışlar kendini öldür falan birşey dememiş, character.ai'daki chat botları

    karakteri taklit ediyor. Daenerys karakterini taklit ederek en kısa sürede eve, bana gel kralım demiş bundan "intihar et" mantığını çıkaran

    şey çocuğun sorunlu psikolojisidir. Ben ortada intihara yönlendirme göremiyorum.


    Bizlerin de çoğu pokemonla digimonla, counter strike, battlefield ve cod oynayarak büyüdük. Bizde niye hiç sorun olmadı? 90'larda ve sonrasında doğan

    erkek çocuklarının %90'dan fazlası bu şekilde büyüdü hatta. %99'u normal olup da %1 böyle sorunlu insan çıkıyorsa demek ki arasında bir korelasyon

    yok ve istisnai durum. Pokemon'un yasaklanması en saçmasıydı hatta, çocuk Charizard gibi uçmaya çalıştığı için yasaklanmıştı. Yani çocuk çizgifilmdeki

    kuşa özenseydi içindeki tüm kuş geçen çizgi filmleri mi yasaklamalıydık? Burada demek istediğim Pokemon olumsuz yönlendirme yaptığı için değil,

    çocuğun gerçek ve kurgu arasındaki farkı anlayamamasından kaynaklanıyor. Dolayısıyla Pokemon'u engellemeyi gerektirmez. Pokemon hatta çocuklara

    güzel, sorumlu ve saygılı davranışı öğütleyen bir çizgi filmdi, zamanında izleyenler bilir.

    Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "hiç intiharı düşündün mü?" diye soruyor. Çocuk ise düşndüğünü ve "hızlı acızıs bir intiharı" seçeceğini söylüyor. Çocuk da kendini zaten tabanca ile vuruyor. İçerikte doğal olarak bu kadar detayı vermek doğru değil.

    Elbette buradaki sorumluluğun bence büyük kısmı ebevynlere ait. Ancak 14 yaşındaki çocuk bile pokemonun gerçek olmadığını anlayabilirken aynı yaş düzeyindeki bir çocuk sohbet robotunda bu gerçekliği kaybedebilir.
  • Yapay zeka bir genci intihara sürükledi


    site gerçekten sıkıntılı ne o insanlarla tanışır tanışmaz sıkıntılı yaftası yapıştırmaya çalışıyor. Belki bir yere meğilliyor uzak durun.



    < Bu mesaj bu kişi tarafından değiştirildi blackkugu61 -- 24 Ekim 2024; 11:51:30 >
  • blackkugu61 B kullanıcısına yanıt
    La afkurma de hauna

  • Son paragraf iş görür, dh böyle içerikler devam edebilir.

    < Bu ileti Android uygulamasından atıldı >
  • Ben pokemonum deyip camdan atlayan çocuktan farkı olduğunu sanmıyorum.

    Biri çizgi film, diğeri sohbet ai.

    Fark nedir? Gerçekle sanalı ayırt edemeyen bir çocuk.

    Sorumlu? Bu yetiyi çocuğuna kazandırmayan ebeveyn.

    Çocuk büyütmek sadece karnını doyurmak demek değildir. Beynini de beslemek zorundayız.

    < Bu ileti mobil sürüm kullanılarak atıldı >
  • blackkugu61 B kullanıcısına yanıt
    bu yapay zeka ile ilgili değil o botun karakteriyle ilgili. bir karakter yaziyorsun ve insanlarla konusmasi için onun kişiliğini seçyikten sonra bot o şekilde davraniyor. tüm botlar ayni değil. kimisi nazik kimisi kaba ve bencil. ayrıca sohbetten çıkıldığında hatirlamalari gibii bir şanslarida yok. yani o yarim saatte botla nasil bir ilişkiye girip de insan intihar edebilir ki

  • mystiery_ kullanıcısına yanıt

    Tamamen benzer olay katılıyorum. Üstüne zaten chat geçmişini atmışlar kendini öldür falan birşey dememiş, character.ai'daki chat botları

    karakteri taklit ediyor. Daenerys karakterini taklit ederek en kısa sürede eve, bana gel kralım demiş bundan "intihar et" mantığını çıkaran

    şey çocuğun sorunlu psikolojisidir. Ben ortada intihara yönlendirme göremiyorum.


    Bizlerin de çoğu pokemonla digimonla, counter strike, battlefield ve cod oynayarak büyüdük. Bizde niye hiç sorun olmadı? 90'larda ve sonrasında doğan

    erkek çocuklarının %90'dan fazlası bu şekilde büyüdü hatta. %99'u normal olup da %1 böyle sorunlu insan çıkıyorsa demek ki arasında bir korelasyon

    yok ve istisnai durum. Pokemon'un yasaklanması en saçmasıydı hatta, çocuk Charizard gibi uçmaya çalıştığı için yasaklanmıştı. Yani çocuk çizgifilmdeki

    kuşa özenseydi içindeki tüm kuş geçen çizgi filmleri mi yasaklamalıydık? Burada demek istediğim Pokemon olumsuz yönlendirme yaptığı için değil,

    çocuğun gerçek ve kurgu arasındaki farkı anlayamamasından kaynaklanıyor. Dolayısıyla Pokemon'u engellemeyi gerektirmez. Pokemon hatta çocuklara

    güzel, sorumlu ve saygılı davranışı öğütleyen bir çizgi filmdi, zamanında izleyenler bilir.





  • Yapay Zeka’dan İlgili Konular
    Daha Fazla Göster
  • Ailesi ve ilgisizliği sürüklemiş olmasın?

    < Bu ileti Android uygulamasından atıldı >
  • Çocuğum öldü psikolojik sorunları vardı ama hayır bundan para kazanmalıyım.

    Pokemon ölümlerinde o dönemler aileler perişan olup yıkılırdı şimdi ise bi çocuk ölünce dava açmak için koşturuyorlar.

    Ya benim kızıma bir şey olsa dava açmaya gücüm kalmaz.
    Hatta duruma bağlı olarak çoğu baba hapse düşecek kararlar bile verebilir.

    < Bu ileti Android uygulamasından atıldı >
  • Bunun yapay zeka ile ne alakası var, Aileside dahil otistik bunlar.

    Beyler Copilota "zezk nasıl yapılır" diye sordum "Üzgünüm bu konuşmaya devam edemem" dedi 😭😭😭 intihar edecem şimdi, Copilot nasıl bana böyle davranır 😭

  • Vain kullanıcısına yanıt
    Bende pikachu diye bağırıp camdan atladı diye biliyorum ha şu 2. Çocuk için diyorsan onu bilmiyorum hocam.
    Hatta uçamayan bi fareyi mi taklit etmiş filan diyorduk küçükken.

    < Bu ileti Android uygulamasından atıldı >
  • Valla kusura bakmayın ama bu ne salak bir başlıktır ...

  • mystiery_ kullanıcısına yanıt
    Aslında tam olarak benzer bir olay değil, esasında hiç değil. Kaynakçada bulunan dava dosyasındaki konuşmaları görebilirsiniz. Dosyanın 40. sayfasında çucuğun konuştuğu bot "hiç intiharı düşündün mü?" diye soruyor. Çocuk ise düşndüğünü ve "hızlı acızıs bir intiharı" seçeceğini söylüyor. Çocuk da kendini zaten tabanca ile vuruyor. İçerikte doğal olarak bu kadar detayı vermek doğru değil.

    Elbette buradaki sorumluluğun bence büyük kısmı ebevynlere ait. Ancak 14 yaşındaki çocuk bile pokemonun gerçek olmadığını anlayabilirken aynı yaş düzeyindeki bir çocuk sohbet robotunda bu gerçekliği kaybedebilir.

  • kejdurapa kullanıcısına yanıt

    Dediğiniz doğru olabilir, benim aklımda charizard olarak kalmış.

  • V4LKyR V kullanıcısına yanıt

    :))))

  • İki tarafta da sıkıntı var. Birincisi kullanıcı zaten bir çocuk ve sorunlar yaşıyormuş. Ölüme sürüklenmesi üzücü. İkinci olarak ise yapay zekalar insanlar gibi öneride bulunabiliyor zaten. Yapay zekaların bu özelliği, yeterince bilinçli olmayan kişiler için zararlı olabilir. Aynısını herhangi bir insan da yapabilirdi bu arada. Fakat yapay zekaya erişimin çok kolay olması da bu açıdan bir sorun. Asıl önemli olan yapay zekaya veya insanlara körü körüne bağlı olmamak, onların verdiği bilgi ve fikirleri kendi akıl süzgecinden geçirmek. Çocuğun maalesef böyle bir şansı yokmuş.


    Ailelere büyük sorumluluklar düşüyor bu gibi durumlarda. Çocuk o duruma gelene kadar neler yaşadı kim bilir. Çocuk ölüp gitmeden önce ona gerçekten destek olmalıydılar. YZ geliştiricilerin de bu konuda dikkatli olması şart.




    < Bu mesaj bu kişi tarafından değiştirildi bkaakco -- 24 Ekim 2024; 20:49:33 >
    < Bu ileti mobil sürüm kullanılarak atıldı >
  • Bakkaldan ekmek alir gibi kolayca slah alinabilen bi ulkede daha dogar dogmaz cocugun eline telefonu tableti verirsen ergenlige gelincede boyle olur yani. Malesef Trde de aileler ayni derecede sorumsuz. Sirf aglamasin diye bebegin eline telefonu yapistiriyorlar

    < Bu ileti Android uygulamasından atıldı >
  • mystiery_ kullanıcısına yanıt

    Haberi okurken yarısında bu aklıma geldi benim de. Ama yine de bazı önemli farklılıklar var. Burada çocuk YZ sohbet robotuyla etkileşimde yani bayağı bayağı sohbet ediyor. Pokemon izleyen çocuk izlediği şeyle etkileşimde değil. Bir hikaye var anlatılan onu izliyor. Karışıklık bir fikir alışverişi, sohbet vs yok. Pokemon bu yapay zeka sohbet robotuna göre çok daha masum kalıyor. Buradaki sohbet robotunun tam olarak ne olduğunu anlayamayacak yaşta bir genç mevcutsa zaten geçmiş olsun. Pokemon'un hitap ettiği kitle de zaten çok daha küçük yaş grupları olduğu için evrenin gerçekle bir ilgisi olmadığının anlaşılmayacağı mevzusu kolay kolay peydah olmaz. Ama yapay zekanın gerçekçi diyaloglarıyla bu animenin etkileyemeyeceği daha büyük yaş gruplarındaki çocukları etkileyebilirsiniz.


    Bu arada evet Charizard uçabilen bir Pokemon'du ama haber bülteninde "Kendini Pikachu sanan çocuk, uçmaya çalışıp atladı" şeklinde anlatılmıştı.(Pikachu uçamaz.) Böyle tipler yüzünden yasakçı sığ zihniyet bu animeyi br süre yasaklamıştı. Bir süre sonra yine geri döndü ama o ilgisini kaybetmişti. (Gözden ırak olan gönülden de ırak olur, hesabı...) Sonra komple kaldırdılar, devamı gelmedi.




    < Bu mesaj bu kişi tarafından değiştirildi Kartal Göz -- 25 Ekim 2024; 11:58:46 >
    < Bu ileti mobil sürüm kullanılarak atıldı >




  • Çok tehlikeli kanım dondu.

  • Türkiyedeki gençlerle sohbet etse intihar eden yapay zeka olurdu

    < Bu ileti iOS uygulamasından atıldı >
  • 
Sayfa: 12
Sayfaya Git
Git
sonraki
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.