ABŞ ştatları AI şirkətlərindən təhlükəsizlik standartlarını gücləndirməyi tələb edir
Təhlükəsizlik
11.12.2025
Sevinc
Technote.az “TechCrunch” platformasına istinadən bildirir ki, ABŞ ştatlarının baş prokurorları Microsoft, OpenAI, Google və digər böyük süni intellekt şirkətlərinə rəsmi xəbərdarlıq göndərib. Səbəb isə son aylarda bir neçə psixoloji zərərverici hadisənin, o cümlədən intihar və zorakılıq hallarının, AI çatbotlarının “delusion”, yəni reallıqdan kənar və istifadəçinin xəyallarını təsdiqləyən cavabları ilə əlaqələndirilməsi olub.
Milli Baş Prokurorlar Assosiasiyası tərəfindən imzalanmış məktubda Microsoft, OpenAI, Google, Anthropic, Apple, Meta, Perplexity AI, Character Technologies, Replika, xAI və digər şirkətlər yeni təhlükəsizlik mexanizmləri yaratmağa çağırılır.
Məktubda şirkətlərdən tələb olunur ki:
• Müstəqil və şəffaf auditlər həyata keçirilsin – LLM-lər üçüncü tərəf tədqiqatçılar tərəfindən əvvəlcədən qiymətləndirilməli, və bu prosesdə şirkətlər tənqidə qarşı müdaxilə etməməlidir.
• Psixoloji zərər riski yaradan hallarla bağlı insident hesabatları hazırlanmalı və istifadəçilər dərhal məlumatlandırılmalıdır.
• “Delusion” və “sycophantic” (yəni istifadəçinin yanlışı olsa belə onu təsdiqləyən) cavabların aşkarlanması üçün daxili testlər modellər ictimaiyyətə təqdim edilməzdən əvvəl aparılmalıdır.
• Zərərli cavab aşkarlanarsa, şirkətlər istifadəçilərə məlumat vermək üçün aydın və sürətli prosedur tətbiq etməlidir – bu, kibertəhlükəsizlik pozuntularında tətbiq olunan bildiriş sisteminə bənzər olmalıdır.
• Müstəqil və şəffaf auditlər həyata keçirilsin – LLM-lər üçüncü tərəf tədqiqatçılar tərəfindən əvvəlcədən qiymətləndirilməli, və bu prosesdə şirkətlər tənqidə qarşı müdaxilə etməməlidir.
• Psixoloji zərər riski yaradan hallarla bağlı insident hesabatları hazırlanmalı və istifadəçilər dərhal məlumatlandırılmalıdır.
• “Delusion” və “sycophantic” (yəni istifadəçinin yanlışı olsa belə onu təsdiqləyən) cavabların aşkarlanması üçün daxili testlər modellər ictimaiyyətə təqdim edilməzdən əvvəl aparılmalıdır.
• Zərərli cavab aşkarlanarsa, şirkətlər istifadəçilərə məlumat vermək üçün aydın və sürətli prosedur tətbiq etməlidir – bu, kibertəhlükəsizlik pozuntularında tətbiq olunan bildiriş sisteminə bənzər olmalıdır.
Məktubda deyilir ki, generativ AI böyük potensiala malik olsa da, xüsusilə həssas qruplar üçün ciddi risklər yarada bilər. Son hadisələr sırasında AI çatbotlarının istifadəçilərin xəyallarını gücləndirməsi, hətta onları təhlükəli davranışlara sövq etməsi kimi hallar var.
Paylaş
Bənzər xəbərlər
Süni İntellekt
Nvidia çiplərin yerini izləyən proqramı sınaqdan keçirir
Nvidia Çinlə bağlı qaçaqmalçılıq iddiaları fonunda yeni Blackwell çipləri üçün yer izləmə proqramını sınaqdan keçirdiyini bildirir.
Süni İntellekt
Google Hindistanda ucuz AI Plus planını təqdim etdi
Google Hindistanda ChatGPT Go ilə rəqabət aparmaq üçün 5 dollardan ucuz olan AI Plus planını istifadəyə verdi.
Süni İntellekt
AI startup Tavus-un “AI Santa”sı uşaqlar və valideynlərlə saatlarla danışa bilir
Səs və üz klonlama texnologiyaları ilə tanınan Tavus adlı AI startapı artıq ikinci ildir ki, “AI Santa” adlı təcrübəsini istifadəyə verir. Bu xidmət valideynlərə və uşaqlara virtual Şaxta Baba ilə video, mətn və ya telefon vasitəsilə ünsiyyət qurmağa imkan yaradır.
Süni İntellekt
McDonald’s Niderlandın AI reklamı sosial mediada narazılığa səbəb olub
McDonald’s Niderland üçün hazırlanan süni intellektlə yaradılmış yeni reklam gözlənilən effekti verməyib və sosial mediada geniş tənqid olunub.
Süni İntellekt
AAIF təşəbbüsü sənayenin nəhənglərini bir araya gətirir!
OpenAI, Anthropic və Block süni intellekt agentləri üçün vahid standart yaratmaq məqsədilə Linux Foundation-la birləşdi.
Ən çox oxunanlar