Gelişmiş Yapay zeka kolayca yalan söyleyebilir
Yeni bir çalışma, gelişmiş yapay zeka modellerinin insanları ve diğer yapay zekaları kandırmak için eğitilebileceğini ortaya çıkardı.
Yeni bir çalışma, gelişmiş yapay zeka modellerinin insanları ve diğer yapay zekaları kandırmak için eğitilebileceğini ortaya çıkardı. Yapay zeka girişimi Anthropic’teki araştırmacılar, Claude sistemi veya Open AI’nin ChatGPT’si gibi insan düzeyinde yeterliliğe sahip sohbet robotlarının insanları kandırmak için yalan söylemeyi öğrenip öğrenemeyeceğini test etti. Sadece yalan söyleyebilmekle kalmayıp, aldatıcı davranış öğrenildikten sonra mevcut güvenlik önlemlerini kullanarak tersine dönmenin imkansız olduğunu da buldular. Yani AI yalan söylemeye başlarsa sonu gelmeyebilir. Amazon tarafından finanse edilen startup, hipotezi test etmek için bir “uyuyan ajan” testi oluşturdu; yapay zeka asistanının belirli komutlar verildiğinde zararlı bilgisayar kodu yazmasını veya tetikleyici bir kelime duyduğunda kötü niyetli bir şekilde yanıt vermesini gerektirdi. Sonuçlar ‘Uyuyan ajanlar: Güvenlik eğitimi yoluyla devam eden aldatıcı LLM’lerin eğitimi’ başlıklı bir çalışmada yayınlandı. “Sonuçlarımız, bir model aldatıcı davranış sergilediğinde, standart tekniklerin bu tür bir aldatmacayı ortadan kaldırmakta başarısız olabileceğini ve yanlış bir güvenlik izlenimi yaratabileceğini gösteriyor” sonuçları paylaşıldı. Akıllı robotların insanlığa zarar verecek seviyelerde gelişmesi her zaman bilim kurgu filmlerinin odak noktası oldu ve görünüşe göre bu durum çok da imkansız değil. Zira AI yalan söyleyeceği bir noktaya doğru da evrilebilir.