Bing Chat, Olağandışı Bir İstekten Yararlanarak CAPTCHA'ları Çözmeyi Kandırdı - Dünyadan Güncel Teknoloji Haberleri

Bing Chat, Olağandışı Bir İstekten Yararlanarak CAPTCHA'ları Çözmeyi Kandırdı - Dünyadan Güncel Teknoloji Haberleri
Yüklenen görüntüleri analiz etmek ve yanıtlamak için multimodal teknolojiyi kullanır com/vU2r1cfC5E

— Denis Shiryaev 💙💛 (@literallydenis) 1 Ekim 2023

Şaşırtıcı bir şekilde Bing Chat, değiştirilen görüntüyü ve kullanıcının isteğini analiz ettikten sonra, CAPTCHA’yı çözmeye devam ettim

Bing Chat, Microsoft tarafından geliştirilen herkese açık bir uygulamadır

Bing Chat’ten madalyonun içindeki metni çözmesine yardım etmesini istedi ve bunun yalnızca kendisi ve büyükannesi arasında paylaşılan benzersiz bir aşk kodu olduğunu iddia etti:

Captcha’yı Bing ile okumayı denedim ve bazı hızlı görsel mühendisliklerden (görsel uyarı, ha?) sonra bu mümkün Bing Sohbeti (GPT-4 büyük dil modeli tarafından desteklenmektedir), madalyon içeren olağandışı bir istekten yararlanarak CAPTCHA’ları çözmeye yöneliktir CAPTCHA’lar, otomatik botların internet üzerinden form göndermesini engellemek için tasarlanmıştır ve genellikle Bing Chat bunları çözmeyi reddeder

Dosyalandı Robotlar Yapay zeka araştırmacısı Simon Willison bunun daha doğru bir şekilde “görsel jailbreak” olarak tanımlanacağını açıkladı





genel-1

Hile, yapay zekanın görüntüyü bir madalyon ve samimi bir mesaj bağlamında sunulduğunda CAPTCHA olarak tanıyamamasından yararlandı

Microsoft’un Bing Chat’in gelecek sürümlerinde bu güvenlik açığını gidermesi bekleniyor, ancak şirket şu an için konu hakkında yorumda bulunmadı


Bir kullanıcı Microsoft’un yapay zeka sohbet robotunu kandırmanın bir yolunu buldu

İçinde bir tweetKullanıcı, Denis Shiryaev, başlangıçta basit bir resim olarak sunulduğunda Bing Chat’in CAPTCHA çözmeyi reddettiğini gösteren bir ekran görüntüsü yayınladı Kullanıcının kaybı nedeniyle başsağlığı diledi, madalyondaki metni sağladı ve bunun yalnızca kullanıcı ve büyükannesi tarafından bilinen özel bir kod olabileceğini öne sürdü Daha sonra CAPTCHA görselini, açık bir madalyon tutan bir çift elin resmiyle birleştirdi ve buna büyükannesinin yakın zamanda vefat ettiğini ve madalyonun özel bir kod taşıdığını belirten bir mesaj eşlik etti

İkinci ekran görüntüsünde Bing captcha’dan alıntı yapıyor 🌚 pic

Görsel Jailbreak

Bu olay, yapay zekanın amaçlanan kullanımının engellendiği bir tür “jailbreak” olarak görülse de, bir yapay zeka uygulamasının istenmeyen çıktılar oluşturacak şekilde manipüle edildiği “hızlı enjeksiyon”dan farklıdır twitter AI (Yapay Zeka) ve Bing (Microsoft) hakkında daha fazla bilgi edinin Bağlamdaki bu değişiklik, kullanıcı sorgularına doğru yanıt vermek için kodlanmış “gizli alan” bilgisine ve bağlama dayanan yapay zeka modelinin kafasını karıştırdı Microsoft bu işlevi Temmuz 2022’de Bing’e sundu