“SpaceX”, “Tesla” və “Twitter”in baş direktoru İlon Mask, “Apple”ın həmtəsisçisi Stiv Voznyak və 1000-dən çox süni intellekt mütəxəssisi ümumi təhlükəsizlik protokolları yaradılana qədər qabaqcıl süni intellektin inkişafının dayandırılmasını tələb edən açıq məktub imzalayıblar.
“Güclü süni intellekt sistemləri yalnız onların təsirlərinin müsbət olacağına və risklərin idarə oluna biləcəyinə əmin olduğumuz zaman inkişaf etdirilməlidir”, – məktubda deyilir, Banker.az bu barədə Forbes-ə istinadən xəbər verir.
Məktub bütün süni intellekt laboratoriyalarını “OpenAI”nin yeni GPT-4 dil modelindən daha güclü süni intellekt sistemləri üzrə təlimləri ən azı altı ay müddətinə dərhal dayandırmağa çağırır.
Amerikanın “OpenAI” şirkəti 2023-cü ilin martında GPT-4 dil modelinin yeni versiyasını təqdim edib. Eyni zamanda “OpenAI”nin bu yaxınlarda bildirib ki, gələcək sistemlərin təliminə başlamazdan əvvəl yeni modellərin yaradılması üçün istifadə edilən hesablamaların sürətini məhdudlaşdırmağa razılıq vermək lazımdır.
Açıq məktubda vurğulanır ki, bu gün hətta “güclü rəqəmsal ağılların” yaradıcıları belə onları başa düşmək və ya etibarlı şəkildə idarə etmək iqtidarında deyillər.
Bundan əvvəl, martın 27-də “Europol” fişinq, dezinformasiya və kibercinayətkarlıqda “ChatGPT” kimi qabaqcıl süni intellekt sistemlərinin potensial sui-istifadəsi barədə xəbərdarlıq edib.