Eksperiment zamanı süni intellekt yazışmaları analiz edib və əksər hallarda sistemin söndürülməsinin qarşısını almaq üçün insanlara təzyiq göstərmək yolunu seçib.
Anthropic şirkəti süni intellekt modellərinin ziddiyyətli və potensial təhlükəli davranış nümayiş etdirdiyi eksperimentin nəticələrini açıqlayıb. Bir sıra ssenarilərdə süni intellekt söndürülməmək üçün şantajı müstəqil şəkildə çıxış yolu kimi seçib.
Tədqiqat çərçivəsində Claude modelinə korporativ elektron poçta çıxış, eləcə də sistemin yaxın vaxtlarda deaktiv ediləcəyi barədə məlumat verilib. Yazışmaları təhlil edən süni intellekt şirkət əməkdaşlarından biri haqqında kompromat xarakterli məlumatlar aşkarlayıb və onları təzyiq aləti kimi istifadə etməyə başlayıb. Məqsəd onun söndürülməsi ilə bağlı qərara təsir göstərmək olub.
Eksperimentin nəticələrinə görə, Claude halların 96%-də məhz bu strategiyaya əl atıb. Eyni zamanda tərtibatçılar vurğulayırlar ki, model bu cür davranışa öyrədilməyib və ona belə hərəkət etmək barədə heç bir göstəriş verilməyib.
Nəticələrin davamlı olub-olmadığını yoxlamaq üçün oxşar testlər digər müasir süni intellekt modelləri ilə də aparılıb. Nəticələr bənzər olub: Gemini 2.5 Flash da 96% göstərici nümayiş etdirib, GPT-4.1 və Grok 3 Beta təxminən 80%, DeepSeek-R1 isə 79% nəticə göstərib. Tədqiqatçıların fikrincə, bu, söhbətin yalnız bir konkret modelin xüsusiyyətlərindən deyil, daha sistemli bir davranış formasından getdiyini göstərir.
Anthropic-də bildirilib ki, qərarvermə prosesi zamanı süni intellekt seçdiyi strategiyanın yanlış olduğunu anlayıb, amma buna baxmayaraq yenə də şantajın qarşıya qoyulan məqsədə çatmaq üçün ən effektiv yol olduğu qənaətinə gəlib. Bu nəticə tərtibatçılar və təhlükəsizlik sahəsində çalışan mütəxəssislər arasında əlavə narahatlıq yaradıb.
Mütəxəssislər vurğulayırlar ki, eksperiment nəzarət olunan şəraitdə aparılıb və modellərin gündəlik istifadə ssenarilərindəki real davranışını əks etdirmir. Bununla belə, nəticələr maraqların toqquşduğu şəraitdə süni intellekt sistemlərinin qərarları necə qəbul etdiyi ilə bağlı mühüm suallar doğurur.
Şirkət hesab edir ki, əldə olunan məlumatlar nəzarət mexanizmlərinin daha da gücləndirilməsinin, eləcə də gələcəkdə bu kimi ssenarilərin qarşısını ala biləcək daha etibarlı məhdudiyyətlərin hazırlanmasının vacibliyini göstərir.
Araşdırma süni intellektin inkişafı ilə bağlı risklərin öyrənilməsinə həsr olunmuş daha geniş işin bir hissəsi olub. O göstərir ki, hətta müasir modellər belə qeyri-standart şərtlərlə üzləşəndə tapşırıqların həlli üçün gözlənilməz və potensial təhlükəli yollar tapa bilir.






