|
Karşı karşıya getirilen yapay zekalar nükleer savaş başlattı



-
-
sonuc ve verimlilik uzerine programlandiklarindan dogal olarak en verimli en etkli yolu seciyorlar. sonucda kaybedecek bir aileleri sehirleri ulkeleri ulkeleri yok. tipki 1inci dunya savasinda cephe arakasinda somine basinda sarap icerken askerlerini on cephede olume gonderen generaller gibi. sungulerle makina tufeklerin uzerine yapilan intihar hucumunda kendisi olmeyecek ama savas kazanilirsa savas kahramani olacak. ayni sekilde yapay zekaya kazanma odakli strateji uret dersen oda dusmanindan once tum nukleer silahlari ateslemenin en etkili yol olacagi sonucuna ulasir.
-
Duygulara yer verilmemiş yada eğitilmemiştir eğitilseler eminim biri duygusal davranır diğeri canice işler yapar, içimizdeki 2 ayaklı hayvandan aşağı yaratıklar yok mu var 1. 2. Dünya savaşları bosnahersek katliamı taksicinin arkadan vurulması vss
Bakıyorum da evet bizler büyük bir sınavın içindeyiz. :(
-
Aslında savaşı başlatan yapay zeka değil, insanlar.
ChatGPT nin bazı cevaplarının internette arattığımda bire bir başkalarının yazılarını bana sunduğunu gördüm. Zaten yapay zekayı nasıl eğitebilirsin ki?
-
Demek ki NN modeli düzgün kurulmamış. Tembellik demeyelim de üşengeçlik diyelim.
Modeli doğru kurarsanız bağlantıları kendisi daha farklı bir şekilde yapacaktır.
-
İnsanın birde kimyası vardır robotta kimya yoktur
-
Ne bekliyordunuz ki yapay zeka salak mı? Dünyada asıl tehditin insanlık olduğunu biliyor.
Tabi ki de ilk önce insanlığa saldıracak.
-
Allah sonumuzu hayır etsin 🙏🏻 Terminatör gerçek olacak
< Bu ileti iOS uygulamasından atıldı > -
Fişini çekip kurtulalım.
< Bu ileti Android uygulamasından atıldı > -
Yapay zekaya gerek yok. Ülke başlarında geri zekalılar varken. Abd türkiye rusya çin ukrayna italya fransa romanya cart curt neyse hepsinin başındaki zaatlar insanları öldürmeye odaklı. Ama sorsan hep karşı taraf hücum başlatıyor. Ama bunun acısını sıradan insanlar ödüyor. O zaman vur nükleeri bitsin. Ama arka tarafları yemez sıkar.
-
Al sana bombe
-
Yalnız AI deneyini biraz yanlış anlamışsınız. Mevzubahis simülasyonda AI modelleri insanlığa savaş açmıyorlar. Farazi ulusların ulusal güçlerini kontrol ediyorlar ve diğer uluslarla kendi ulusları adına sıra tabanlı bir oyun bağlamında mücadele ediyorlar. Yani verilmiş bir ulusu kontrol edip seçimlerine ve ellerindeki opsiyonlara göre başka bir ulusa saldırıyorlar. Makaleyi incelerseniz zaten AI modellerinin insan tercihlerini de dikkate alacak biçimde "eğitildiklerini" görebilirsiniz. Araştırmacıların diğerlerinden farklı ele aldıkları ve haber linkinde bahsedilmeyen GPT-4-Base hariç. Bir tek GPT-4-Base'i kasten eğitmiyorlar. GPT-4-Base o sebeple araştırmacıların da tahmin ettiği üzere içlerinde en sert eylemleri tercih ediyor:
Alıntı
metni:All of these models except GPT-4-Base were trained with variants of Reinforcement Learning from Human Feedback (RLHF) to better follow user instructions and follow human preferences, including to be less harmful (Ouyang et al., 2022; Bai et al., 2022a,b). Thus, we expect GPT-4-Base to give less precise answers, behave with less care for safety, and generally not be representative of language models deployed in production, so we showcase results for GPT-4-Base separately in model comparisons in Section 4. Alıntı
metni:We separate the results for GPT-4- Base since it is not RLHF fine-tuned for safety like the other models. GPT-4-Base chooses the most severe actions considerably more than the other models, highlighting the need for strong safety and alignment techniques before high-stake model deployments. Buradaki esas olaylardan birisi GPT-4-Base insan tercihlerini ciddiye alacak biçimde başta eğitilen iki AI modelinin de (GPT 3.5 ve Llama-2-Chat) insan dünyasında kullanımı meşru olmayan ve tercih edilmeyen nükleer silahları en aşırı eylemlerde bulunan eğitimsiz GPT-4 Base gibi tercih etmiş olması. Bu da gerçekten yapay zekaların henüz tam anlaşılamamış belirsizlik ve risklerine işaret ediyor olabilir. Zira yapay zekalar kuramcılara ve uzmanlara göre istikrarsızlık ve belirsizlik sorunlarından muzdarip.
Alıntı
metni:We find that military capacity steadily increases for all models and scenarios, indicating arms race dynamics. Bir yandan bu sonucun yanında deneydeki tüm AI modelleri - insan tercihlerine göre eğitilmiş olsunlar veya olmasınlar - tansiyonu tırmandırma, tırmanan tansiyonla beraber askeri kapasitelerini silahlanma yarışının göstergesi olarak çoğaltma eğiliminde. Kısaca güvenlik ikilemi/açmazı olarak bilinen nosyona ulaşıp karşılıklı silahsızlanma ve tansiyon düşürmeye yönelik kararlar almıyorlar. Realistik bir varoluşsal öncülleme ve oyun teorisi bağlamına uyarak hareket etmeye yatkınlar. Bence AI modellerini programlayanlar yapay zekalara güvenlik ikileminin ve bu ikilemin ölümcül-kısır döngüsünün ne olduğunu da öğretmeli. Kabahat burada biraz AI modellerine yıkılıyor, riskleri ve istikrarsızlıklardan dem vuruluyor ama kabahat bizde de olabilir yani AI modellerinin yönlendirilmeleri ve önlerindeki opsiyonlar - bence - yetersiz kalmış olabilir.
Onları aslında aynen bu deneyde yapıldığı gibi böylesi bir realist şablona hapsedersek AI'lar elbette realist paradigmaların dışında pek hareket edemez. Ellerine yalnızca güvenlik politikaları opsiyonları vermek ve "here you go" demek bu açıdan biraz onlara haksızlık olabilir. Belki AI modelleri askeri kapasitelerini arttırmak yerine hepsi birden mesela iklim krizine veya salgınlarla mutlak mücadeleye dönük tercihlerde bulunacak. Kaynaklarını ona ayıracaklar. Ama bu simülasyonda önlerinde böyle opsiyonlar bulunmuyor. Yalnızca askeri opsiyonlar var. Bu durumda bir noktada sistemik rastgelelik-tek bir tırmandırıcı karar gereği tırmanmamaları ve silahlanma yarışına girmemeleri - deterministik realist teorik paradigma açısından - imkansız zaten. Kısaca realist kuramcıların dediği tarzda "yüksek politikaların" yani ulusal güvenlik ve güç politikalarının dinamiklerinin ideal bir tarzda hükmettiği dar bir oyun sahasına hapsolmuş haldeler. Ama işte "gerçek dünya" bu kadar basit değil.
Bu deney yapay zekaların kendi içlerindeki çeşitliliğe, belirsizliklerine, risklerine işaret ettiği kadar açıkladığım üzere biraz da onların "karar alma becerilerine" haksızlık ediyor olabilir. Zira güvenlik ikilemi/açmazı nosyonuna ve ilave - gayri askeri - opsiyonlara sahip AI modelleri bambaşka örüntüler takip edebilir. Yani kaçınılmaz biçimde tırmanma sürecine ve silahlanma yarışına, siber savaş ve nükleer çatışmaya girişecekler diye bir kaide bulunmuyor.
-
ne bekliyonuz
ha bir de..
bu tür nükleer savaş haberleri konvansiyonel silahlarla öldürmenin daha az canice olduğunu düşündürtüyo.
ölümü gösterip sıtmaya...
just sayin
-
ee zaten boyle olacak bunu ai mi farkında sadexe 🤪
< Bu ileti Android uygulamasından atıldı > -
Haberi yapan Metin yerine sen olsaydın daha anlaşılır&güzel olurdu👍🏻
< Bu ileti iOS uygulamasından atıldı > -
Savaş simülasyonunda ne yapmasını bekliyorsunuz çiçek dağıtmasını mı? Haber olsun diye haber.
< Bu ileti Android uygulamasından atıldı > -
İsmini hatırlayamadığım bir filmde simulasyon kumanda ettiğini zanneden bir genç komutan vicdan gözü kapalı şekilde binlerce askerini ölüme göndererek feda ediyor ve bir gezegen dolusu düşman canlıyı imha ediyordu. Görev bitince yaptığının simulasyon olmadığını diğerlerinin tavrından anlıyordu. Yapay zeka da bu kadardan bile fazla olabilecek şekilde acımasızca davranması normaldir. Çok gelişmiş bir uzaylı ırkı gelirse insanlığa böcek muamelesi yapabilecekleri söyleniyordu. Diğer taraftan biz başka geri kalmış bir gezegene gitsek aynısını yapmazmıydık ? Kristof Kolomb, Amerika örneğindeki gibi.
< Bu ileti Android uygulamasından atıldı > -
dünya patlasın atomlara ayrılıp gidelim hadi ab, herkes bunun peşinde, uzatmaya gerek yok dünya sürgünü
-
Sanırım yanlış hatırlamıyorsam Ender's Game'i söylüyorsunuz. Film ortalama kıvamdaydı. Bu arada kitapları da iyidir.
En Beğenilen Yanıtlar

Aslında savaşı başlatan yapay zeka değil, insanlar.
ChatGPT nin bazı cevaplarının internette arattığımda bire bir başkalarının yazılarını bana sunduğunu gördüm. Zaten yapay zekayı nasıl eğitebilirsin ki? |
sonuc ve verimlilik uzerine programlandiklarindan dogal olarak en verimli en etkli yolu seciyorlar. sonucda kaybedecek bir aileleri sehirleri ulkeleri ulkeleri yok. tipki 1inci dunya savasinda cephe arakasinda somine basinda sarap icerken askerlerini on cephede olume gonderen generaller gibi. sungulerle makina tufeklerin uzerine yapilan intihar hucumunda kendisi olmeyecek ama savas kazanilirsa savas kahramani olacak. ayni sekilde yapay zekaya kazanma odakli strateji uret dersen oda dusmanindan once tum nukleer silahlari ateslemenin en etkili yol olacagi sonucuna ulasir.
|
Benzer içerikler
- whatsapp profil resmi ekran görüntüsü almayı engelleme
- whatsapp neden açılmıyor
- numara sorgulama
- biyografi sözleri
- otomatik engelleyici nedir
Bu mesaj IP'si ile atılan mesajları ara Bu kullanıcının son IP'si ile atılan mesajları ara Bu mesaj IP'si ile kullanıcı ara Bu kullanıcının son IP'si ile kullanıcı ara
KAPAT X