Kasım 27, 2024

Play of Game

Türkiye'den ve dünyadan siyaset, iş dünyası, yaşam tarzı, spor ve daha pek çok konuda son haberler

“60 Dakika”, bir Google yapay zeka sohbet botu hakkında şaşırtıcı derecede yanlış bir iddiada bulundu

“60 Dakika”, bir Google yapay zeka sohbet botu hakkında şaşırtıcı derecede yanlış bir iddiada bulundu

OpenAI, ChatGPT’yi dünyaya saldığından beri, inanamayacağınız insanları aldığını gördük. Bazı insanlar, sohbet robotlarının uyanmış bir gündemi olduğunu iddia etti. ABD Senatörü Chris Murphy, ChatGPT’nin kendi kendine gelişmiş kimya “öğrettiğini” tweetledi. Deneyimli teknoloji gazetecileri bile nasıl çalıştığına dair hikayeler yazdı. Chatbot onlara aşık oldu. Görünüşe göre dünya yapay zekaya, mağara adamlarının ateşi ilk gördüklerinde muhtemelen tepki verdikleri gibi tepki veriyor: tam bir kafa karışıklığı ve tutarsız gevezeliklerle.

En güncel örneklerden biri de buradan geliyor. 60 dakikaPazar günü CBS’de yayınlanan yapay zeka alanındaki yenilikleri konu alan yeni bölümüyle ringlere seslenen . Bölümde, Google CEO’su Sundar Pichai gibi kişilerle yapılan röportajlar ve şüpheli içerikler yer aldı. Şirketin büyük dil modellerinden (LLM) biri hakkında iddialar.

Segment, modelin geliştiricileri tarafından zorunlu olarak amaçlanmayan bir yapay zeka sisteminin beklenmedik bir yan etkisini açıklayan acil davranışla ilgilidir. Diğer yeni AI projelerinde ortaya çıkan davranışları zaten gördük. Örneğin, geçen hafta çevrimiçi olarak yayınlanan bir çalışmada araştırmacılar yakın zamanda ChatGPT’yi amaçları ve geçmişi olan dijital kişiler oluşturmak için kullandılar. Sistemin, bir karakterden diğerine yeni bilgi paylaşmak ve hatta birbirleriyle ilişkiler kurmak gibi çeşitli ortaya çıkan davranışları gerçekleştirdiğini belirtiyorlar – bu, yazarların sistem için başlangıçta planlamadığı bir şey.

Ortaya çıkan davranış, kesinlikle bir haber programında tartışılmaya değer bir konudur. nerede 60 dakika Ancak, Google’ın chatbot’unun daha önce bilmediği bir dili o dilde sorulduktan sonra kendi kendine gerçekten öğretebildiğine dair iddiaları öğrendiğimizde video değişiyor. CBS Haber muhabiri Scott Pelley videoda, “Örneğin, bir Google AI programı, kendisine bilgi eğitimi verilmeyen Bangladeş dilinde yapması söylendikten sonra kendi kendine uyarlandı” dedi.

Tam bir BS olduğu ortaya çıktı. Robot, “bilmek için asla eğitmediği” bir yabancı dili öğrenmemekle kalmadı, aynı zamanda kendine yeni bir beceri de öğretmedi. Klibin tamamı, AI araştırmacılarını ve uzmanlarını, haber programının Twitter’daki yanıltıcı çerçevesini eleştirmeye sevk etti.

READ  Sonos Black Friday fırsatları: En iyi soundbar'lardan ve hoparlörlerden tasarruf edin

Santa Fe Enstitüsü’nde yapay zeka araştırmacısı ve profesörü olan Melanie Mitchell, “Bazı gazetecilerin yapay zekayı nasıl * kapsamayacaklarına” ilişkin bir vaka çalışması olarak Google Bard’daki @60Minute segmentinin tamamını inceleyeceğini umuyorum” dedi. bir tweet’te yazdı.

“Teknoloji hakkında büyülü düşünmeyi bırakın! Eğitim verileri Bengalce ile kirletilmedikçe veya Assamca, Oriya veya Hintçe gibi Bengalce ile örtüşen bir dilde eğitilmedikçe #AI’nın Bengalce yanıt vermesi mümkün değil.” Alex O. Massachusetts Institute of Technology’de araştırmacı, Başka bir gönderide eklendi.

kayda değer 60 dakika Klip tam olarak hangi yapay zekayı kullandıklarını söylemedi. Bununla birlikte, bir CBS sözcüsü The Daily Beast’e bölümün Bard hakkında bir tartışma olmadığını, çekirdek teknolojisi daha sonra Bard’a entegre edilen PaLM adlı ayrı bir yapay zeka programı olduğunu söyledi.

Bu bölümün bu uzmanlar için bu kadar sinir bozucu olmasının nedeni, üretici yapay zekanın gerçekte neler yapabileceği gerçeğini görmezden gelmesi ve onunla oynamasıdır. İlk etapta erişimi yoksa, kendisine bir dili “öğretemez”. Bu, kendi kendinize Mandarin Çincesi öğretmeye çalışmak gibi bir şey olabilir, ancak bunu ancak birisi size Mandarin Çincesi sorduktan sonra duydunuz.

Ne de olsa, dil inanılmaz derecede karmaşıktır – anlamak ve iletişim kurmak için inanılmaz derecede bağlam gerektiren nüanslar ve kurallar vardır. En gelişmiş LLM’nin bile tüm bunları birkaç istemle halletmesi ve öğrenmesi mümkün değildir.

PaLM, halihazırda Bangladeş’in baskın dili olan Bengalce ile eğitilmiştir. AT HuggingFace’te Başlangıç ​​Laboratuvarı’nda araştırmacı ve daha önce Google’da araştırmacı olan Margaret Mitchell (ilişki yok), bunu şurada açıkladı: tweet konusu Neden için bir tartışma yapın 60 dakika yanlıştı.

Mitchell, 2022’deki bir gösteride Google’ın PaLM’nin Bengalce dilinde iletişim kurabildiğini ve istemlere yanıt verebildiğini gösterdiğini belirtti. the PaLM’nin arkasındaki kağıt Bir veri sayfasında, modelin aslında Bengalce alfabesinde yaklaşık 194 milyon sembolle dil üzerinde eğitildiğini ortaya çıkardı.

READ  Dead Space Remake, kendi sanat yönetmeni için oldukça korkutucu

Yani sihirli bir şekilde tek bir bilgi istemiyle hiçbir şey öğrenmedi. Zaten dili biliyordu.

Google’ın CEO’su Pichai’nin neden röportaj için oturduğu ve bu iddiaların karşı çıkmadan devam etmesine neden izin verdiği belli değil. (Google, yorum taleplerine yanıt vermedi.) Bölüm yayınlandığından beri, uzmanların klipte ortaya atılan yanıltıcı ve asılsız iddialara dikkat çekmesine rağmen sessizliğini korudu. Twitter’da Margaret Mitchell Teklif Bunun arkasındaki neden, Google liderlerinin ürünlerinin nasıl çalıştığını bilmemesi ve ayrıca üretici yapay zeka etrafındaki mevcut yutturmacayı ele almak için zayıf mesajlaşmanın yayılmasına izin vermesi olabilir.

“Şüpheliyim [Google executives] Nasıl çalıştığını gerçekten anlamıyorum, Mitchell cıvıldamak. “Yukarıda yazdıklarım büyük olasılıkla onlar için bir haber. Ve anlamamak için motive oluyorlar (GÖZLERİNİZLE BU VERİ SAYFASINA KONUŞUN!!).”

Videonun ikinci yarısı da sorunlu olarak görülebilir, çünkü Pichai ve Billy, Bard’ın “kulağa çok insani gelen” bir kısa hikayeyi tartışarak iki adamı biraz sarstı.

Gerçek şu ki, bu ürünler sihir değil. İnsan olmadıkları için “insan” olamazlar. Bunlar, telefonunuzdakiler gibi, bir dizi kelimeden sonra en olası kelimeleri ve tümceleri bulmak için eğitilmiş metin tahmin edicileridir. Var olduklarını söylemek, onlara inanılmaz derecede tehlikeli olabilecek bir güç düzeyi verebilir.

Ne de olsa kullanıcılar, yanlış bilgi yaymak gibi şeyler yapmak için bu üretici yapay zeka sistemlerini kullanabilir. Bunun insanların görünüşlerini ve hatta seslerini manipüle ettiğini zaten gördük.

ChatGPT ve Bard’ın benzerlerinde daha önce gördüğümüz bir şey olan taraflı sonuçlar üretirse tek başına bir sohbet robotu bile zarar verebilir. Bu sohbet robotlarının halüsinasyon görme ve sonuçlar uydurma eğilimini bildiklerinden, şüphelenmeyen kullanıcılara yanlış bilgi yayabilirler.

Araştırmalar da bunu doğruluyor. Yakın tarihli bir çalışma Yayınlanan bilimsel raporlar Etik sorulara verilen insan yanıtlarının ChatGPT tarafından öne sürülen argümanlardan kolayca etkilenebileceğini ve hatta kullanıcıların botlardan ne kadar etkilendiklerini büyük ölçüde hafife aldıklarını keşfetti.

READ  Doug Bowser, Nintendo Hesaplarının Switch'in halefine "geçişi kolaylaştıracağını" söyledi

hakkında yanıltıcı iddialar 60 dakika Gerçekten de, en çok ihtiyaç duyduğumuz bir zamanda dijital okuryazarlığa olan ihtiyacın artmasının sadece bir belirtisi. Birçok yapay zeka uzmanı, insanların yapay zekanın ne yapıp ne yapamayacağının artık her zamankinden daha fazla farkında olması gerektiğini söylüyor. Robotik hakkındaki bu temel gerçekler, daha geniş bir kitleye etkili bir şekilde iletilmelidir.

Bu, en büyük platformlara ve en yüksek sese sahip kişilerin (medya, politikacılar ve Big Tech CEO’ları gibi) daha güvenli ve daha eğitimli bir AI geleceği sağlamada en fazla sorumluluğu üstlendiği anlamına gelir. Bunu yapmazsak, yukarıda bahsedilen mağara adamları gibi ateşin büyüsüyle oynayan ve bu süreçte yanarak son bulabiliriz.