Şimdi Ara

Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor!

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
8
Cevap
0
Favori
486
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
6 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor!
    Yapay zekâ diğer birçok teknolojik devrimlerde olduğu gibi faydalarıyla birlikte zararlarını da hayatımıza sokacak. Görünüşe göre şimdilik buna hazırlıklı değil. Son gelen bilgiler yapay zekâ ile üretilen gerçekçi ses taklitlerinin dolandırıcılıkta kullanılmaya başlandığını bildiriyor.



    Washington Post’un aktardığına göre birkaç çift, kendilerini çeşitli nedenlerle yardım dolayısıyla arayan çocuklarına para gönderdi, her duyarlı ailenin yapacağı gibi. Ancak farkında olmadıkları bir sorun vardı; Konuştukları kişi çocukları değil, bir yapay zekaydı.



    Yapay zeka tarafından oluşturulmuş ses ile dolandırıcılık



    Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor!
    Elbette ses tabanlı dolandırıcılık yeni bir şey değil. ABD Federal Ticaret Komisyonu verileri, geçen yıl insanların arkadaş veya aile gibi davranan suçlular tarafından dolandırıldığına dair 36.000 raporun 5.100'den fazlasının telefonda gerçekleştiğini ortaya koyuyor. Bir kişinin sesini taklit etmek önceden saatlerce süren ses keşifleri ile mümkün oluyordu. Ortaya çıkan ürünlerin kusurları ise dikkatli kişiler tarafından fark edilebiliyordu. Ancak şimdi yapay zeka ile oluşturulmuş ses taklitleri için sadece birkaç dakika yeterli. Aktarılanlara göre bir çift, çocuklarının sesini taklit eden dolandırıcılara 15.449 dolar gönderdi ve tek kurban kendileri değil.






    Örneğin Microsoft'un Vall-E aracı sadece 3 saniyelik ses klipleri ile oldukça gerçekçi ve tutarlı ses taklitlerini mümkün kılıyor. Üstelik bu küçük ses klipinden farklı tonları (sinirli, heyecanlı vb.) bile üretebiliyor. Benzer bir araç olan ElevenLabs ise çok daha gerçekçi sesler üretebiliyor. Hemen üstteki Twitter videosundan aracın başarısını görebilirsiniz.



    Gelinen noktada bu tip dolandırıcılar veya kötü kullanım için kapsamlı önlemlerin alınması şart gibi duruyor. Sadece dolandırıcılık olarak da görmemek gerek. Bu tip üretilmiş seslerle birleştirilmiş deepfake videolar özellikle karmaşanın olduğu anlarda ciddi sonuçlara neden olabilir. Bankaların ses tabanlı güvenlik özellikleri aşılabilir. Dolayısıyla sosyal medya platformları kendilerine yüklenen videolarda veya görsellerde yapay zekayı tespit eden araçlara yer verebilir. Halihazırda ChatGPT gibi metin üreten yapay zekâları tespit eden DetectGPT gibi modeller geliştiriliyor.




    Kaynak:https://www.techspot.com/news/97822-scammers-using-voice-generating-ai-trick-people-out.html







  • elevenlabs denedim robot ruhsuz bir sesi var. ai voice diyemiyoeum bile.. onlarca kaliteli sistem varken gereksiz..

  • KaleyDeskop kullanıcısına yanıt

    Türkçe denerseniz öyle olur ingilizce olarak adam ı seçin bakın nasıl konuşuyor kerata Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor! 

  • Yapay zekâ Dünya'yı ele geçirmeden önce insanlık Dünyayı bir süre elden geçirecek anlaşılan.

    < Bu ileti mobil sürüm kullanılarak atıldı >
  • yakında insanıda kopyalayıp bankadan para çektirirler. dolandırılık gelişiyor

  • AnadoluEfes kullanıcısına yanıt

    türkçe değil tabiki ingilizce denedim. bu sistemlerin en büyük sorumu virgül vurgulama gibi işaretleri anlamada zorlanması.


    < Bu ileti mobil sürüm kullanılarak atıldı >
  • KaleyDeskop kullanıcısına yanıt

    Şunu denermisin bunun Türkcesi daha iyi youtube video seslendirmelerin de kullanıyorlar bu siteyi



    Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor!
    Dolandırıcılar yapay zekâ ile klonlanan sesleri kullanmaya başladı: İşe yarıyor!responsivevoice.js text to speech
    Konuşma Türkçe metin - ResponsiveVoice.JS Text to Speech
    https://responsivevoice.org/text-to-speech-languages/konusma-turkce-metin/



    < Bu mesaj bu kişi tarafından değiştirildi AnadoluEfes -- 9 Mart 2023; 19:38:11 >
    < Bu ileti mobil sürüm kullanılarak atıldı >
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.