Şimdi Ara

OpenAI o1 modeli biyolojik silahlar oluşturmak için kötüye kullanılabilir

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
4
Cevap
0
Favori
250
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
5 oy
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • OpenAI o1 modeli biyolojik silahlar oluşturmak için kötüye kullanılabilir
    Yapay zeka (YZ) alanında önde gelen araştırma kuruluşlarından OpenAI, o1 veya Çilek projesi olarak bilinen son modelinin kötüye kullanılma olasılığını kabul etti. Şirket, bu modeli kimyasal, biyolojik, radyolojik ve nükleer (KBRN) silahların oluşturulmasına yardımcı olma açısından orta riskli olarak derecelendirdi.



    Yapay zeka teknolojilerindeki en yüksek risk seviyesine sahip



    Yeni başlatılan o1 modeli, gelişmiş muhakeme becerileri, karmaşık matematik problemlerini çözme yeteneği ve ayrıca bilimsel araştırma sorularını yanıtlama yeteneği gibi gelişmiş yeteneklere sahip. Bu gelişmeler yapay genel zekanın (AGI) geliştirilmesinde önemli bir ilerleme kaydedildiğini gösteriyor.



    Ancak kötü niyetli kişiler tarafından istismar edildiğinde, tehlikeli uygulamalarda kötüye kullanılma potansiyelini de istemeden artırıyor. o1 modellerinin gelişmiş muhakeme yetenekleri potansiyel olarak biyolojik silahları daha etkili bir şekilde geliştirmek için kullanılabilir.



    Ayrıca Bkz.OpenAI'nin yeni yapay zeka modelleri aylık 2000 dolara mal olabilir



    Bu, AI topluluğunda etik ve güvenlik endişeleri doğuruyor. Önde gelen yapay zeka araştırmacılarından Profesör Yoshua Bengio, bu riskleri azaltmak için acil düzenlemelere ihtiyaç duyulduğunu ve yapay zeka geliştiricilerinin, modellerinin biyolojik silah üretmek için kullanılma riskini azaltacak adımlar uygulamasının zorunlu olması gerektiğini savunuyor.



    Bu endişelere yanıt olarak OpenAI'nin Teknoloji Sorumlusu Mira Murati, firmanın o1 modelini kamuoyuna duyururken dikkatli davrandığını belirtti. Yeni model, olası güvenlik açıklarını tespit edilip sıkı testlerden geçirildikten sonra bir API aracılığıyla ChatGPT'nin ücretli aboneleri ve geliştiricilerinin erişimine açılacak. Kullanımıyla ilişkili risklere rağmen OpenAI, politikaları uyarınca o1'in dağıtım için güvenli olduğuna karar verdi.




    Kaynak:https://www.news9live.com/technology/tech-news/openai-o1-model-bioweapon-risk-strawberry-ai-explained-2695214







  • durun hele daha henüz agi ye ulaşmadık agi ye ulaştığımızda acaba ne yapacaklar

    < Bu ileti iOS uygulamasından atıldı >
  • Bu ne saçma argüman ? Ekmek bıçağı işe insan öldürülebilir e o zaman Ekmek bıçağı da kullanmayalım.

    < Bu ileti Android uygulamasından atıldı >
  • Yapay Zeka’dan İlgili Konular
    Daha Fazla Göster
    
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.