
Google DeepMind ümumi süni zəkanın 2030-cu ilə qədər yaranacağını proqnozlaşdırır
Süni İntellekt
03.04.2025
Emil
Google DeepMind ümumi süni zəkanın (AGI) təhlükəsizliyinə yanaşma ilə bağlı məqalə dərc edib. Şirkət AGI-ni müxtəlif zehni vəzifələrdə bacarıqları peşəkar yetkin insan səviyyəsinə bərabər olan sistem kimi təyin edir. DeepMind hesab edir ki, AGI artıq 2030-cu ilə qədər mövcud ola bilər. Məqalənin müəllifləri qeyd edirlər ki, belə sistemlər bəşəriyyət üçün mövcudluq təhlükəsi yarada bilər və bu risklər hətta “bəşəriyyətin məhvinə” qədər gedib çıxa bilər. 145 səhifəlik sənədin həmmüəlliflərindən biri də DeepMind-ın həmtəsisçisi Shane Legg olub. Məqalədə vurğulanır ki, AGI 2030-cu ilə qədər inkişaf edə bilər və bu, ciddi zərər riski daşıyır.

Şirkət ümumi süni zəkanı belə təyin edir: Bacarıqları müxtəlif sahələrdə, o cümlədən yeni bacarıqların öyrənilməsi kimi metakoqnitiv vəzifələrdə, təlim görmüş peşəkar yetkinlərin 99%-i səviyyəsində olan sistem. DeepMind AGI ilə bağlı risklərin idarə olunması yanaşmasını Anthropic və OpenAI ilə müqayisə edir. Müəlliflərin fikrincə, Anthropic təlim və nəzarət təhlükəsizliyinə kifayət qədər diqqət yetirmir, OpenAI isə süni zəkanın təhlükəsizliyi sahəsində “uyğunlaşdırma” (alignment) adlanan yanaşmanı həddən artıq avtomatlaşdırmağa güvənir. Bir müddət öncə OpenAI bəyan etdi ki, artıq diqqətini AGI-dən superzəkaya yönəldir.

DeepMind-ın sənədində isə bu yanaşma şübhə altına alınır - yəni insanı bütün sahələrdə üstələyən süni zəka sistemlərinin yaranması ehtimalı sorğulanır. Müəlliflər hesab edirlər ki, süni zəkanın arxitekturasında ciddi dəyişikliklər edilmədən, yaxın gələcəkdə superzəka sistemlərinin yaranması çətin görünür və bəlkə də heç baş verməyəcək. Lakin müəlliflər hesab edirlər ki, mövcud texnologiyalar süni zəkanın özünü müstəqil şəkildə təkmilləşdirməsini mümkün edə bilər. Yəni süni zəka özü-özünü öyrədə və özünün daha inkişaf etmiş versiyalarını yarada bilər. Bu isə olduqca təhlükəli ola bilər, sənəddə xüsusi vurğulanır. Şirkət, ümumi süni zəkanın (AGI) hipotetik təhlükələrinə qarşı 3 əsas prinsipə əsaslanan mühafizə strategiyası təklif edir:
- Zərərli niyyətli şəxslərin giriş imkanlarının məhdudlaşdırılması;
- Süni zəkanın qərarlarının şəffaflığının artırılması;
- Onun fəaliyyət göstərməsi üçün qorunan mühitlərin yaradılması.

Texniki həllərin bir çoxu hələ işlənmə mərhələsində olsa da, müəlliflər potensial təhdidlərə qarşı indidən qabaqlayıcı tədbirlərin görülməsini vacib hesab edirlər. Mütəxəssislər tədqiqatın müddəalarına qarşı skeptik yanaşma göstəriblər. Bəziləri bildirir ki, ümumi süni zəka konsepsiyası hələ də elmi qiymətləndirmə üçün çox qeyri-müəyyəndir, digərləri isə süni zəkanın özünü təkmilləşdirməsi ideyasını sübut olunmamış fərziyyə hesab edirlər. Mütəxəssislər daha aktual bir problemə diqqət çəkirlər - bu da süni zəkanın "halüsinasiyalarının" təkrar istehsalıdır. Belə ki, internetdə dəqiqliyi tam olmayan süni kontent artdıqca, süni zəka modelləri özlərinin təhrif olunmuş nəticələrinə əsasən yenidən öyrənməyə başlayır və dezinformasiyanın qapalı dövrəsini yaradır.
Mənbə: Techcrunch
Paylaş
Bənzər xəbərlər

Süni İntellekt
OpenAI o3 süni zəka modelinin bir tapşırığı yerinə yetirməsi üçün 30 000$ xərc tələb olunur
Keçən ilin dekabrında OpenAI şirkəti o3 adlı süni zəka modelini təqdim etdi və onun imkanlarını qiymətləndirmək üçün ən çətin test sayılan ARC-AGI göstəricilərini nümayiş etdirdi.

Elm & Texnologiya
Çində 6 yaşlı uşağın idrak qabiliyyətinə sahib robot hazırlanıb (VİDEO)
Çində təkmilləşdirilmiş ümumi təyinatlı süni zəka sistemi ilə təchiz olunmuş ilk humanoid (insanabənzər) robot - TongTong 2.0 təqdim olunub.

Süni İntellekt
Süni zəka botları Wikipedia üçün ciddi problemlər yaradırlar
Wikipedia süni zəkanın sürətli inkişafı səbəbindən zərər görür - onlayn ensiklopediya, süni zəka modellərinin öyrədilməsində onun məqalələrini kopyalayan botlar səbəbilə artan xərclərlə üzləşib.

Süni İntellekt
Llama süni zəka modelini keçən əsrin kompüterində işə salmaq mümkün olub
Generativ süni zəka ətrafında yaranmış böyük maraq fonunda maraqlı bir təcrübə Andreessen Horowitz vençur fondunun həmtəsisçisi Marc Andreessen tərəfindən həyata keçirilib.

Süni İntellekt
OpenAI yaxın zamanda məntiqi düşünməyə sahib açıq mənbəli yeni süni zəka modelini istifadəyə verəcək
Yaxın aylarda OpenAI süni zəkaya əsaslanan açıq mənbəli böyük dil modelini təqdim etməyi planlaşdırır - bu, GPT-2-dən bəri ilk belə model olacaq.
Ən çox oxunanlar

POCO F7 Pro və F7 Ultra flaqman smartfonları təqdim edilib - QİYMƏTİ
