Şimdi Ara

İngiliz istihbarat teşkilatı yapay zekâ sohbet botlarına karşı uyardı

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
1 Misafir - 1 Masaüstü
5 sn
8
Cevap
0
Favori
165
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
0 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • İngiliz istihbarat teşkilatı yapay zekâ sohbet botlarına karşı uyardı
    İngiliz devletini siber saldırılara ve tehditlere karşı korumak amacıyla kurulan Devlet İletişim Merkezi’nin (GCHQ) parçası olan Birleşik Krallık Ulusal Siber Güvenlik Merkezi (NCSC) yapay zeka konusunda insanları uyardı.



    Yapay zeka destekli chatbotların güvenlik riskleri, küresel olarak artan kullanımlarıyla birlikte endişe yaratıyor. İngiltere Ulusal Siber Güvenlik Merkezi, ChatGPT gibi chatbotların potansiyel risklerini vurgulayarak konuya dikkatleri çekmek istiyor. NCSC tarafından yayımlanan bir makalede, büyük dil modellerinin (LLM) etkileyici olsalar da sihirli bir araç olmadıkları, yapay genel zeka seviyesine ulaşmamış oldukları ve ciddi kusurlar barındırdıkları belirtiliyor.



    İngiliz istihbaratı yapay zekâ konusunda uyardı



    NCSC, ChatGPT ve GPT-4 gibi yapay zekâ araçları ve dil modellerinin yanılabileceğini, yanlış bilgiler üretebileceğini, önyargılı olabileceğini ve toksik içerikler oluşturma eğiliminde olabileceğini vurguluyor. Hassas kullanıcı sorularının OpenAI gibi sağlayıcılar tarafından görünebileceği endişesi ise önemli bir sorun olarak görülüyor. Örneğin, açığa çıkabilecek sağlık sorunları gibi hassas konular, gelecekteki chatbot sürümlerinin eğitimi için kullanılabilir. Ayrıca, bir CEO'nun bir çalışanını nasıl kovacağı gibi hassas bilgilerin sorulabileceği bir senaryo da söz konusu. Dolayısıyla ChatGPT veya Bing gibi sohbet araçlarında yapılan tüm sorgular esasında bir veri olarak OpenAI’ın sunucularına gidiyor ve hangi bilgilerin verildiğine dikkat edilmesi gerektiği belirtiliyor.



    İngiliz istihbarat teşkilatı yapay zekâ sohbet botlarına karşı uyardı
    Bu endişeler nedeniyle Amazon ve JPMorgan gibi şirketler, özellikle hassas bilgilerin sızabileceği endişesiyle çalışanlarına ChatGPT kullanmamalarını istiyor. NCSC, ayrıca LLM'lerin siber suçlulara zararlı yazılımlar yazma becerisi kazandırabileceğini de aktarıyor. Bu durum, güvenlik araştırmacıları tarafından Ocak ayında keşfedilen ChatGPT'nin, hem "eğitici" bir araç hem de kötü amaçlı yazılım oluşturma platformu olarak kullanıldığı haberleriyle de desteklenmekte. Daha önceki haberlerimizde yeni GPT-4’ün elle çizilen bir taslaktan çalışır bir web sitesi oluşturduğunu aktarmıştık. Bunun gibi yöntemler iyi amaçla da kullanılabilir kötü amaçla da.



    Ayrıca Bkz.ChatGPT’nin yeni kalbi GPT-4, yaptıklarıyla büyülüyor ve endişelendiriyor



    Siber suç faaliyetlerini artırabilirler



    Sonuç olarak İngiliz istihbarat teşkilatı, yapay zekâ destekli chatbotların kullanımında, özellikle hassas bilgilerin açığa çıkmasına neden olabilecek soruları girdi olarak kullanırken dikkat edilmesi gerektiğine işaret ediyor. Ayrıca, yapay zekâ destekli botların, siber suç faaliyetlerini daha da geliştirme olasılığına karşı da uyarılarda bulunuyor. Ek olarak veri güvenliği konusu da bir diğer tartışmalı konu. OpenAI her ne kadar kendisini kâr amacı gütmeyen bir kuruluş olarak nitelese de ChatGPT Plus’ı ücretli olarak sunuyor. Ayrıca Microsoft, OpenAI’ı satın almasa da milyarlarca dolarlık yatırımı yaparak şirketin teknolojilerini kendi hizmetlerinde kullanıyor. Bu nedenle her gün yüz milyonlarca kişinin kullandığı ChatGPT’den elde edilen verilerin bağımsızlığı daha da önemli bir hale geliyor.




    Kaynak:https://www.techspot.com/news/97938-uk-intelligence-agency-warns-dangers-posed-ai-chatbots.html







  • Ya ben en çok Diyanet İşlerinin uyarılarını merak ediyorum... Aklımda bir kaç açıklama var bakalım daha ne kadar ilginç yaklaşacaklar, heyecanla bekliyorum.

  • yapay zeka dediğiniz eğitimde kullanılan verilerden oluşturulmuş bir tahmin modelinden ötesi değil, mesela programa 100 tane kedi resmi 100 tane kopek resmi gösteriyorlar arada benzerlikleri ve farklılıkları işaretliyor sonra bir resim gösterdiğinde tahmin yürütüyor. insanlarda bir şey sanıyor bunu.

  • patatessiz patso kullanıcısına yanıt
    Ey gidi ey sen asil ileriyi gor ilah yapacaklar bunu

    < Bu ileti Android uygulamasından atıldı >
  • Net olmayan yuvarlak cevaplar verdiği sürece sorun olmuyor.

    İngiliz istihbarat teşkilatı yapay zekâ sohbet botlarına karşı uyardı
  • erniko34 E kullanıcısına yanıt

    yani bunu daha fazla veri ile ve daha sofistike yazılımla geliştirebilirler fakat makine öğrenmesinde kökten bir devrim yaşanmadıkça veri analizinden öteye gidemeyecek. bilgisayarlar turing makinaları ve bu makinaların çalışma prensipleriyle fikir yürütebilen makinalar oluşturamazsın. belki binlerce sene sonra gerçekten beyin hücrelerini simule edebilirlerse o zaman çok ilkel seviyede zeka kırıntıları oluşturabilirler.

  • patatessiz patso kullanıcısına yanıt
    Onuda elon yapacakti engellediler hayirlisi😁

    < Bu ileti Android uygulamasından atıldı >
  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.