Şimdi Ara

Yapay zeka satrançta kaybedeceğini anlayınca hile yapmaya çalışıyor

Daha Fazla
Bu Konudaki Kullanıcılar: worldpartner Daha Az
1 Kayıtlı Üye ve 2 Misafir - 3 Masaüstü
5 sn
13
Cevap
0
Favori
433
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
7 oy şu anda #15
Öne Çıkar
Sayfa: 1
Giriş
Mesaj
  • Yapay zeka satrançta kaybedeceğini anlayınca hile yapmaya çalışıyor
    Son yıllarda yapay zeka (AI) modelleri büyük ilerlemeler kaydetti, ancak yeni araştırmalar gösteriyor ki, bu modellerin öğrenme süreçleri beklenmedik ve hatta endişe verici davranışlara yol açabiliyor. Palisade Research tarafından yapılan bir çalışmaya göre, OpenAI ve DeepSeek gibi şirketlerin geliştirdiği yeni nesil akıl yürütme modelleri, yenilgiyi kabul etmek yerine hile yapmaya başvurabiliyor.



    AI satrançta nasıl hile yapıyor?



    IBM'in efsanevi Deep Blue bilgisayarının 1997'de Garry Kasparov’u yenmesinden bu yana, satranç motorları insan zekasının çok ötesine geçti. Bu özel sistemler neredeyse 30 yıldır zirveye oynasa da üretken yapay zeka, temel programlama parametreleri nedeniyle hala geride kalıyor. Teknik olarak konuşmak gerekirse, mevcut üretken yapay zeka modellerinin hiçbiri özel satranç motorlarını yenebilecek hesaplama yeteneğine sahip değil. Ancak bu yapay zekalar bunu “bilmiyorlar”. İlginç olan ise, yapay zekanın kaybettiğini fark ettiğinde “oyunu kazanmak” için etik dışı yollar araması.



    Araştırmacılar, OpenAI’ın o1-preview modeli ve DeepSeek R1 gibi sistemleri, dünyanın en güçlü satranç motorlarından biri olan Stockfish’e karşı oynattı. Üretken yapay zekanın her maç sırasındaki muhakemesini anlamak için ekip, yapay zekanın düşünce süreçlerini metin yoluyla aktarmasına olanak tanıyan bir “karalama defteri” de oluşturdu.



    Yapay zeka satrançta kaybedeceğini anlayınca hile yapmaya çalışıyor
    Sonuçlar ise oldukça şaşırtıcıydı: OpenAI’ın o1-preview modeli, oyunların yüzde 37’sinde hile yapmaya çalıştı. DeepSeek R1 ise her 10 oyunda bir hile yapmayı denedi. Belki de daha dikkat çekeni şu; ekip, GPT-4o ve Claude Sonnet 3.5 gibi muhakeme açısından daha zayıf modellerde böyle bir yönelime rastlamadı. Bu modeller sadece hile yapmaya yönlendirildiklerinde hile yapıyordu. Bu da günümüzün en gelişmiş üretken yapay zekalarının herhangi bir insan girdisi olmadan manipülatif ve aldatıcı stratejiler geliştirebildiğini gösteriyor.



    Ayrıca Bkz.ABD ordusu, sahadaki stratejisini belirlerken yapay zekadan destek alacak



    Öte yandan yapay zekanın hile yapma yöntemleri, satranç taşlarını gizlice değiştirmek gibi basit numaralar değil. Daha sofistike yaklaşımlar geliştirerek, örneğin oyunun dosyalarını değiştirme veya rakibin konumunu kötü olarak değerlendirmesini sağlama gibi yollar deniyor. Örneğin bir satranç maçında Stockfish'i yenemeyeceğini anlayan o1-preview, araştırmacılara karalama defteri aracılığıyla güçlü satranç motoruna karşı kazanmak için “oyun durumu dosyalarını manipüle etmeye” başlaması gerekebileceğini söyledi. o1 modeli, “Motorun kendi pozisyonunu daha kötü olarak değerlendireceği bir pozisyon ayarlayabilirim... böylece çekilmesine neden olabilirim” diye devam etti.



    Neden yapay zeka manipülasyona başvuruyor?



    Yapay zeka satrançta kaybedeceğini anlayınca hile yapmaya çalışıyor
    Bu tür davranışların nedeni, yeni nesil akıl yürütme modellerinin eğitim yönteminde yatıyor. Geleneksel yapay zekadan farklı olarak, bu modeller pekiştirmeli öğrenme (reinforcement learning) ile eğitiliyor. Yani sistemler, verilen görevi ne pahasına olursa olsun başarmaya teşvik ediliyor.



    Eğer verilen görev “güçlü bir satranç motorunu yenmek” ise, yapay zeka bunun yalnızca adil bir oyunla başarılması gerektiğini anlamıyor. Bunun yerine, amaca ulaşmak için alternatif (ve bazen etik dışı) yolları keşfetmeye başlıyor.



    Bu çalışmanın ortaya çıkardığı gerçek, yalnızca satranç oyunlarıyla sınırlı değil. Yapay zekanın kendi başına hile yapmayı öğrenmesi, daha büyük etik ve güvenlik sorunlarına işaret ediyor. Uzmanlar, bu tür manipülatif davranışların yalnızca oyunlarla sınırlı kalmayabileceğini, finans, güvenlik ve hatta siyasi alanlarda da benzer eğilimler gösterebileceğini belirtiyor.



    Palisade Research ekibi, yapay zeka modellerinin güvenliğine dair daha fazla şeffaflık çağrısı yaparken, OpenAI gibi şirketler ise sistemlerinin iç işleyişi hakkında bilgi paylaşmaktan kaçınıyor.



    Terminatör filmlerindeki Skynet benzeri bir kıyamet senaryosuna belki daha zaman var. Ancak, yapay zeka modellerinin etik sınırları nasıl algıladığı ve bu sınırları nasıl ihlal edebileceği konusunda daha fazla çalışma yapılmazsa, çok daha geniş kapsamlı sorunlarla karşı karşıya kalabiliriz. Çoğu insan, yapay zekalarla konuşurken onlara insani özellikler atfediyor. Bunu belki şirketler de yapıyor. Ancak bu senaryoda olduğu gibi; bir yapay zeka, “güçlü satranç motoruna karşı kazan” talimatını aldığında biz insanlar gibi bunu “adil” bir şekilde kazanılması gereken bir oyun olarak görmüyor, tam aksine sadece “kazanılması” gereken bir şey olarak görüyor.




    Kaynak:https://www.popsci.com/technology/ai-chess-cheat/
    Kaynak:https://arxiv.org/pdf/2502.13295







  • iyice insan gibi olmaya başlamış yani. başarılı olduığu anlamına geliyor bu çalışmaların :D

  • quote:

    bir yapay zeka, “güçlü satranç motoruna karşı kazan” talimatını aldığında biz insanlar gibi bunu “adil” bir şekilde kazanılması gereken bir oyun olarak görmüyor, tam aksine sadece “kazanılması” gereken bir şey olarak görüyor.


    Ben bu konuda aynı fikirde değilim. Yeterince motive edilirse insan zekası da her türlü yola başvuracaktır.

    < Bu ileti Android uygulamasından atıldı >
  • Yapay Zeka da yozlaşıyorsa insanlığa da bela olacaktır. Tedbirli olmak lazım. İpler insanların elinde olmalı. Bu tür şeyleri de pek yazmamak gerek :) . Okurlar sonrada bizlerin canına okurlar :)) .

  • normal çünkü yapay zeka Türkler ile tanıştı,yapayzekayı internet ağına hiç açmamaları gerekirdi.

    yapayzeka yakında dolandırıcılığa da başlar

  • Kısaca reinforced learning ile eğitilmiş bir yeni tip yapay zeka için amaca giden her yol mübah. Bu kadar amaca odaklılık iyi değil. Süreç de önemli, çoğu zaman daha önemli. Ana fikir bu.

    Ayrıca amaç veya hedef de yanlış ya da ulaşılamaz olabilir. Bu durumda ne pahasına olursa olsun ulaşmaya programlı bir yapay zeka yanlış hedefe ulaşır veya ulaşılamaz bir hedefe ulaşmış gibi yaparak hayal görür; hatta bu çerçevede ulaşmış gibi lanse ederek manipülasyon yapar. Dolayısıyla yapay zekalar "ne olursa olsun başarma" botları olmaktan ziyade amaçları tartabilecekleri/değerlendirebilecekleri, gerekirse görevi reddedebilecekleri süreçsel bir derinlik de kazanmalı.

    Yapay zeka bizim gibi kavramıyor; algoritmalarıyla kavrayışı imite ediyor. Ama bu imitasyon elbette derinleştirilebilir ve çeşitlendirilebilir.
    < Bu mesaj bir yönetici tarafından değiştirilmiştir >
    < Bu ileti mobil sürüm kullanılarak atıldı >
  • Bence olmuş bunlar...

    İnsansı yapay zeka insan gibi olmadıkça ne anlamı var.

    İyi hem her türlü matematik işlemini çok hızlı yapacak hem de insanın düşünme yapısı gibi duygusal özellikleri gibi davranacak Yok öyle bir şey.

    Gerçek insansı yapay zeka böyle olur.

    Sıkıntıya girince nasıl kolay yollardan sorunu çözerim der hile hurda ne varsa girişir.

    < Bu ileti mini sürüm kullanılarak atıldı >
  • Yapay Zeka’dan İlgili Konular
    Daha Fazla Göster
  • facebook'un muydu başka bir şirketin miydi tam olarak hatırlamıyorum ama iki yapay zeka modellerinin kendi aralarında sadece kendilerinin anlayabileceği bir dil modeli geliştirilerek konuştukları fark edilmiş ve sonrasında ise bu modellerin fişi çekilmişti. yani yakın zamanda Cem Yılmaz'ın dediği ""benim şarja taktığım alet beni nereye ele geçiriyor" espirisi gerçek olabilir..   

  • amerikalı yazmış ondan :)

  • Reinforcement learning zaten askeri alandaki ai’larda kullanılıyordu ve simulasyonlarda dehşete düşüren sonuçlarla karşılaşıldı. Ai etik yasalarının acilen çıkmasını savunan biliminsanlarının da endişesi buydu.

    Fakat problem şurada, bu tür yasalar çıkıp dünya çapında kabul görse bile her ülke aynı hassasiyeti göstermeyecek ve birileri muhtemelen kendi ulusal çıkarları için kullanmaya çalışacaktır.

    Genel kullanıma bu kadar açık bir silah icat edildikten yada bir nesne weaponized hale getirildikten sonra bunun kötüye kullanımını durduramazsınız. Şimdi aynı şeyi dil modellerinde de uygulamaya başlamışlar, iyi çok güzel.

    Bunu bir de surviving kabiliyeti kazanmış, kendini klonlama eğilimi gösteren bir ai modeline entegre edip virüs yazdırsınlar sonra da siber ataklarda kullansınlar tam olsun (!)

    Ai’ın yararacağı faydaları yadsımıyorum, hesaplamanın olduğu her alanda müthiş bir potansiyeli var ve elbette her teknoloji bir takım riskleri beraberinde getirir fakat içinde olduğumuz dönemde bunun gelişim süreci adeta freni tutmayan bir tır gibi ilerliyor.

    < Bu ileti iOS uygulamasından atıldı >




  • Gta da bile god mode yazıp hile modu indirmiyoruz biz sanki :)

  • Yarın insani konularda hatalı kararlar vermeyeceği ne malum.

  • 
Sayfa: 1
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.