Şimdi Ara

Ürpertici itiraf: ChatGPT’yi yapan firma bile nasıl çalıştığını bilmiyor

Daha Fazla
Bu Konudaki Kullanıcılar: Daha Az
2 Misafir - 2 Masaüstü
5 sn
39
Cevap
0
Favori
3.224
Tıklama
Daha Fazla
İstatistik
  • Konu İstatistikleri Yükleniyor
14 oy
Öne Çıkar
Sayfa: 12
Sayfaya Git
Git
sonraki
Giriş
Mesaj
  • Ürpertici itiraf: ChatGPT’yi yapan firma bile nasıl çalıştığını bilmiyor
    Geçtiğimiz günlerde OpenAI, yeni bir makale yayınladı. Bu makalede eski GPT-2 modelindeki nöronların davranışları için açıklamalar yazmak üzere GPT-4 dil modelini kullanan bir tekniğin detaylarına yer veriliyor. Buradaki amaç ise sinir ağlarının ürettikleri çıktıları neden oluşturduklarını açıklamak.



    Büyük dil modelleri (LLM) teknoloji dünyasını fethederken, yapay zeka (AI) araştırmacıları hala kaputun altındaki işlevsellikleri ve yetenekleri hakkında çok fazla şey bilmiyorlar. OpenAI, yayınlanan makalesinin ilk cümlesinde "Dil modelleri daha yetenekli hale geldi ve daha yaygın olarak kullanılmaya başlandı, ancak nasıl çalıştıklarını anlamıyoruz" diyerek bunu açıkça itiraf ediyor.



    Neden çalıştıklarını bilmiyoruz



    Ürpertici itiraf: ChatGPT’yi yapan firma bile nasıl çalıştığını bilmiyor
    Çerçevenin dışından bakanlar için bu ifade, yalnızca LLM'lerden elde edilen gelire bağlı olmakla kalmayıp aynı zamanda onları insan ötesi muhakeme yeteneği seviyelerine çıkarmayı uman bir şirketten gelen çarpıcı bir itiraf gibi görünebilir.



    Ayrıca Bkz.Google, ChatGPT-4 rakibi PaLM 2 yapay zeka modelini duyurdu: İşte yenilikler



    Ancak bir sinir ağının bireysel nöronlarının çıktılarını üretmek için birlikte nasıl çalıştığını tam olarak "bilmeme" durumunun iyi bilinen bir adı bulunuyor: Kara kutu. Yani, mevcut durumda yapay zeka sistemlerinden bir şeyler istiyoruz ve onlar da bir bizlere bir cevap veriyor, fakat bu iki işlem arasındaki süreçte (kara kutu) ne olduğu bir gizem.



    Kara kutunun içine bakmak amacıyla OpenAI'daki araştırmacılar GPT-4 dil modelini kullanarak GPT-2 gibi çok daha az karmaşık bir dil modelindeki nöronların davranışları için doğal dil açıklamaları oluşturdu ve değerlendirdi. Teoride, yorumlanabilir bir AI modeline sahip olmak, bu sistemlerin istendiği bir şekilde çalışmasına katkıda bulunabilir.



    Çalışma şekilleri anlaşılabilirse eksiklikleri giderilebilir



    Ürpertici itiraf: ChatGPT’yi yapan firma bile nasıl çalıştığını bilmiyor
    Bilindiği üzere insan beyninde 100 milyar civarında nöron bulunuyor. Bir sinir ağında nöron, bilgiyi alan, işleyen ve bir çıktı üreten küçük bir karar verme birimi gibidir, tıpkı aldığı sinyallere göre karar veren küçük bir beyin hücresi gibi. OpenAI’da bu yapay zeka nöronlarının çalışma şeklini anlamaya çalışıyor fakat görünüşe göre en azından şimdilik en gelişmiş yapay zeka modellerinden olan GPT-4 bile nöronları yorumlamakta zayıf kalıyor.



    OpenAI araştırmacıları, yapay zeka modelleri daha gelişmiş hale geldikçe, üretilen açıklamaların kalitesinin artacağını ve bu karmaşık sistemlerin iç işleyişine dair daha iyi bilgiler sunacağını umuyor. OpenAI, araştırma makalesini, her adımın örnek dökümlerini içeren, metnin vurgulanan kısımlarını ve bunların belirli nöronlara nasıl karşılık geldiğini gösteren etkileşimli bir web sitesinde yayınladı. Firma çalışmalarına devam edeceğini belirtiyor.



    Eğer “yorumlanabilirlik” alanında istenen başarı sağlanırsa o zaman ChatGPT ve diğerlerinin neden bir şeyler uydurduğunu anlayabilir ve bu kritik sorun çözülebilir. Zira bu, tıpkı insanların hastalandıklarında tedavi edilmeleri gibi bir süreç. Bir sorunumuz varsa hastaneye gider muayene olur ve teşhis konulur. Teşhis konulunca da buna göre ilaç verilir. Şimdilik yapay zeka modellerini kesin doğrulukla “muayene” edemiyoruz.




    Kaynak:https://openaipublic.blob.core.windows.net/neuron-explainer/paper/index.html
    Kaynak:https://arstechnica.com/information-technology/2023/05/openai-peeks-into-the-black-box-of-neural-networks-with-new-research/







  • CEO durumu "Allah'ın bir hikmeti" olarak da nitelendirmiş mi sayın editör? Magazin haberi gibi başlık atmışsınız yine.


    Yapay zekanın çalışma şekli zaten "blackbox" yani "kara kutu" olarak geçmiyor mu? Siz parametrelerle eğitiyorsunuz, ağırlıklarını tanımlıyorsunuz; o da nodelar arasındaki ilişkiyi kurup ağırlıklara ve eğitim materyallerine göre cevap dönüyor. Yapay zekanın çalışma şeklinin en basit açıklaması budur benim bildiğim.

    Haliyle bir yapay zekayı tam anlamıyla anlamak için parametreler arası ilişkileri incelemek gerekir. Ama parametre arttıkça parametreler arasındaki ilişkiyi incelemek de zorlaşıyor haliyle. ChatGPT'nin 100 trilyon (rakamla 100000000000000) parametresi arasındaki ilişkiyi incelemek de hiç kolay bir iş değildir tahminimce.
  • Hmm

    < Bu ileti iOS uygulamasından atıldı >
  • Yalandan kim ölmüş

  • Tüylerim falan ürpermedi. Az daha abartın belki ürperir.

    < Bu ileti iOS uygulamasından atıldı >
  • Yazın alınan stajere açıklama yazdırırsan olacağı bu. Yada mühendisliğe yeni başlamış öğrenciye

  • Ürpertici itiraf: ChatGPT’yi yapan firma bile nasıl çalıştığını bilmiyor 

  • Gerçekten şaka gibiler.

    < Bu ileti iOS uygulamasından atıldı >
  • Yapay Zeka’dan İlgili Konular
    Daha Fazla Göster
  • Ne kadar seviyorsunuz abartmayı

    < Bu ileti Android uygulamasından atıldı >
  • CEO durumu "Allah'ın bir hikmeti" olarak da nitelendirmiş mi sayın editör? Magazin haberi gibi başlık atmışsınız yine.


    Yapay zekanın çalışma şekli zaten "blackbox" yani "kara kutu" olarak geçmiyor mu? Siz parametrelerle eğitiyorsunuz, ağırlıklarını tanımlıyorsunuz; o da nodelar arasındaki ilişkiyi kurup ağırlıklara ve eğitim materyallerine göre cevap dönüyor. Yapay zekanın çalışma şeklinin en basit açıklaması budur benim bildiğim.

    Haliyle bir yapay zekayı tam anlamıyla anlamak için parametreler arası ilişkileri incelemek gerekir. Ama parametre arttıkça parametreler arasındaki ilişkiyi incelemek de zorlaşıyor haliyle. ChatGPT'nin 100 trilyon (rakamla 100000000000000) parametresi arasındaki ilişkiyi incelemek de hiç kolay bir iş değildir tahminimce.



    < Bu mesaj bu kişi tarafından değiştirildi CWaRRioR -- 12 Mayıs 2023; 16:16:55 >
  • La yapay zeka diye bişey yok

    mesaj yazdığınız pencerenin arkasında adam var maaşlı eleman

    yazıları yazan o gandırıyorlar sizi

  • 20.yy başlarında insanlık kendi ulaşılmazlığını kutluyordu. yapay zekaya can vermeyi başarmıştı.

    bu tür haberleri gördükçe aklıma matrix geliyor.

  • Tabi canım uzaya falanda çıkılmadı ameriganın oyunu aslında komik bıyıklı adam dünyaya barış getirdi depremlerde amariganin oyunu

    < Bu ileti Android uygulamasından atıldı >
  • Vay be... Isaac Asimov taa 1950'lerde robot hikayelerini yazarken hikayesindeki robotlara düşünme gücü veren pozitronik beynin, yani şimdiki adıyla yapay zeka donanımının tam olarak nasıl işlediğinin anlaşılamadığını, oradaki pozitronik yollar (yani bu haberdeki nöronlar) arasındaki işlemlerin, işlem hacminin büyüklüğünden dolayı tamamının anlaşılamayacağını ifade ediyor. Asimov'un ne kadar büyük bir deha olduğunu bugünkü teknolojide daha iyi anlıyoruz...



    < Bu mesaj bu kişi tarafından değiştirildi Bloodin -- 12 Mayıs 2023; 18:57:55 >
  • Namık kemal güzel söylemiş

  • Ürpertici itiraf: ChatGPT’yi yapan firma bile nasıl çalıştığını bilmiyorCem Yılmazyoutube
    Cem Yılmaz - CM101MMXI FUNDAMENTALS Gösterisinden "Bilgisayarlar" bölümü. Güncel paylaşım ve videolara ulaşmak için Cem Yılmaz'ın resmi hesapları: http://cmylmz.com/ http://facebook.com/cmylmz http://twitter.com/cmylmz http://youtube.com/cmylmz http://google.com/+cmylmz Cem Yılmaz YouTube kanalına abone olmak için: https://goo.gl/7lYOPX Diğer Videolar: CM101MMXI Fundamentals: https://goo.gl/owpQfj CMYLMZ (2007): https://goo.gl/GJmtTc Bir Tat Bir Doku: https://goo.gl/5htNdd Soru Cevap: https://goo.gl/MLSj6Y Filmler: https://goo.gl/I72ngT CM101MMXI Fundamentals iTunes'da. Satın almak için tıklayın: https://goo.gl/Ckb4eH
    https://www.youtube.com/watch?v=W7d7HBljL84
  • Başlık hatalı be kardeşim, yapay zeka değil nöronların .çalışma şekli hakkında bir itiraf bu :))

  • Nasıl bilmiyorsunuz ,kaç tane terminatör filmi çıktı seyredin orada detaylı anlatılıyor zaten skynet.

  • ben dh editörlerinin yazdığı haberleri okumuyorum. zaman kaybı. girersem en beğenilen yanıtlara bakıp çıkıyorum. başlıklar zaten hep böyle clickbait

  • çok havalı bir açıklama olmuş:)) ama hiç zannetmiyorum.

    ChatGPT'yi seviyorum nedense, benim profesyonel iş hayatımda pek işime yaramıyor ama çocuklarıma tavsiye ediyorum.

  • 
Sayfa: 12
Sayfaya Git
Git
sonraki
- x
Bildirim
mesajınız kopyalandı (ctrl+v) yapıştırmak istediğiniz yere yapıştırabilirsiniz.