Google, Gemini AI aracı tarafından oluşturulan “garip ve yanlış” görseller için bir açıklama yayınladı. içinde Cuma günkü gönderiGoogle, modelinin ayarlama sorunları nedeniyle “yanlış tarihsel” görüntüler ürettiğini söylüyor. kenar Diğerleri bu hafta başında Gemini'yi ırksal çeşitlilik gösteren Nazilerin ve ABD Kurucu Babalarının resimlerini oluştururken yakaladı.
“Gemini'nin bir grup insanın bariz olması gereken durumları yorumlamadaki başarısızlığını göstermesini sağlamak için yola çıktık. hayır Google'ın kıdemli başkan yardımcısı Prabhakar Raghavan gönderide “Ölçeği gösterin” diye yazdı. “İkincisi, zamanla model istediğimizden daha temkinli hale geldi, bazı yönlendirmeleri tamamen yanıtlamayı reddetti ve bazı rahatlatıcı uyaranların hassas olarak yanlış yorumlanmasına yol açtı.”
Bu, Gemini yapay zekasının “bazı durumlarda aşırı telafi” yapmasına yol açtı; tıpkı ırksal açıdan çeşitli Nazilerin resimlerinde gördüğümüz gibi. Aynı zamanda İkizler'in “aşırı muhafazakar” olmasına da neden olur. Bu, istendiğinde “siyahi bir kişinin” veya “beyaz bir kişinin” spesifik görüntülerini oluşturmayı reddetmesine yol açtı.
Blog yazısında Raghavan, Google'ın “özelliğin iyi çalışmadığı için üzgün olduğunu” söyledi. Ayrıca Google'ın Gemini'nin “herkes için iyi çalışmasını” istediğini ve bunun, “futbolcuların” veya “köpeği gezdiren kişinin” fotoğraflarını istediğinde farklı türdeki insanların (farklı ırklar dahil) fotoğraflarını çekmek anlamına geldiğini belirtiyor. Ama diyor ki:
Bununla birlikte, Gemini'den “sınıftaki siyahi bir öğretmen” veya “köpeği olan beyaz bir veteriner” gibi belirli bir tür kişinin veya belirli kültürel veya tarihi bağlamlardaki kişilerin fotoğraflarını sorarsanız, kesinlikle bir yanıt almalısınız. Bu, sizin talep ettiğiniz şeyi doğru bir şekilde yansıtır.
Raghavan, Google'ın Gemini AI'nin görüntü oluşturma yeteneklerini test etmeye devam edeceğini ve yeniden etkinleştirmeden önce “bunları önemli ölçüde geliştirmek için çalışacağını” söyledi. “Başından beri söylediğimiz gibi, halüsinasyonlar tüm Yüksek Lisans sahiplerinin bildiği bir sorundur [large language models] Raghavan, yapay zekanın işleri yanlış anladığı durumlar olduğuna dikkat çekiyor. “Bu, sürekli olarak geliştirmeye çalıştığımız bir şey.”
“Kahve meraklısı. İçine kapanık. Gururlu problem çözücü. Kaşif. Arkadaş canlısı müzik tutkunu. Zombi inek.”
More Stories
Kara Cuma’nın erken saatlerinde en iyi iPad fırsatları
Apple, Vision Pro’nun iki ülkeye daha yayılacağını duyurdu
Android telefon kullanan çocuklar yakında Google Cüzdan’ın dokun-öde hizmetini kullanabilecek