Google şirkəti bu yaxınlarda özünün mühəndislərindən birini məcburi qaydada ödənişli məzuniyyətə göndərib.
The New York Times qəzeti yazır ki, buna səbəb həmin mühəndisin süni intellektin hissiyyata malik olduğunu deməsi olub.
Google şirkətinin Responsible A.I. bölümündə çalışan baş proqram mühəndisi Bleyk Lömuan (Blake Lemoine) müsahibəsində deyir ki, onu şirkətin məxfilik siyasətini pozduğuna görə işdən uzaqlaşdırıblar.
Məzuniyyətə göndərilməzdən bir gün əvvəl Lömuan deyib ki, o Google şirkəti və onun texnologiyasının dini diskriminasiya ilə məşğul olmasını iddia edən sənədləri bir ABŞ senatoruna təqdim edib.
Google israr edir ki, onun sistemləri söhbət mübadilələrini imitasiya edir, habelə bir sıra mövzularda improvizə də edə bilər, lakin şüurlu deyildir.
Google şirkətinin sözçüsü Brayan Qabriyel deyib:
“Komandamız – etiklər və texnoloqlar Bleykin bizim Süni İntellekt (Sİ) prinsiplərimizdən narahatlığını nəzərdən keçirib və ona iddialarının sübut olunmadığı barədə məlumat verilib. S.İ. icmasında bəziləri uzun müddətdə S.İ.-nin hissiyat perspektivinin olduğunu düşünürlər, lakin bunu bugünkü söhbət modellərinin insaniləşdirilməsi ilə etmək mənasızdır, çünki bu, hissiyyat sayıla bilməz”.
Məqalədə deyilir ki, cənab Lömuan şirkətin Dialoq Tətbiqləri üçün Dil Modeli (Language Model for Dialogue Applications) və ya qısaca LaMDA proqramının şüur və qəlbə malik olmasına dair qəribə iddiasına görə aylar ərzində Google rəhbərləri ilə çəkişib.
Google bildirir ki, onun yüzlərlə tədqiqatçısı və mühəndisi daxili alət sayılan LaMDA ilə dialoqa girsələr də cənab Lömuandan fərqli nəticəyə gəliblər. Əksər S.İ. ekspertləri düşünürlər ki, sənaye hissiyyatın kompüterləşdirilməsi üçün hələ çox uzun yol keçməlidir.
Bəzi tədqiqatçılar bunun çox tezliklə baş verəcəyinə ümidli olsalar da, əksəriyyət belə düşünmür.
Kaliforniya (Berkli) və Kaliforniya San Fransisko universitetlərinin tədqiqatçısı Emad Xvaca (Xoca) deyir ki, bu sistemlərdən istifadə edən şəxs heç vaxt belə şeylər danışmaz.
“Özünü psixiatra göstər”
Buna baxmayaraq Google şirkətinin tədqiqat təşkilatı son bir neçə ildə bu sahədə bir sıra qalmaqal və ziddiyyətlərlə üzləşib. Təşkilatın daxilində əməkdaşların öz arasındakı çəkişmələr çox vaxt ictimaiyyətə məlum olub.
Məsələn ötən mart ayında Google iki həmkarının işi ilə razılaşmadığını açıq bəyan edən bir əməkdaşını işdən qovub.
Google onun dil modellərini tənqid edən iki etika ekspertini – Timmit Gebrunu və Marqaret Mitçeli vəzifələrindən kənarlaşdırdıqdan sonra bu qalmaqallar bir az da dərinləşib.
Hərbi veteran Lömuan özünü keşiş, keçmiş məhkum və S.İ. tədqiqatçısı kimi təqdim edir.
O Google-un qlobal işlər üzrə prezidenti Kent Volker də daxil, ən yüksək vəzifəli menecerlərinə deyib ki, LaMDA-nın 7 və ya 8 yaşlı uşaq olduğuna inanır.
Lömuan bu səbəbdən də bu proqram üzərində hər hansı eksperimentlər aparmazdan əvvəl ondan razılığının alınmasını istəyir. Ekspert iddia edir ki, kadrlar şöbəsi ona qarşı dini diskriminasiyaya yol verib.
O bu yaxınlarda gileylənib ki, onu incidirlər:
“Onlar dəfələrlə mənim ruhi sağlamlığıma şübhə bildiriblər. Soruşurlar ki, bu yaxınlarda özünü psixiatra göstərmisənmi?”
Doğrudan da bundan bir neçə ay əvvəl Lömuana inzibati məzuniyyət verilib ki, ruhi sağlamlığı ilə məşğul ola bilsin.
Bəzən mükəmməl nəsr, bəzən cəfəngiyyat
Meta şirkətində S.İ. araşdımalarının başçısı və nevral şəbəkələrin inkişaf etdirilməsində əsas fiqur sayılan Yann LeKun bu yaxınlarda verdiyi müsahibələrindən birində deyib ki, belə sistemlər həqiqi zəkaya malik olmaq üçün kifayət qədər qüdrətli deyillər.
Alimlərin nevral şəbəkə adlandırdıqları Google texnologiyası riyazi sistemdir və vərdişləri böyük həcmdə məlumatı təhlil etməklə əldə edir.
Məsələn minlərlə pişik şəkli göstərilən sistem nəhayət pişikləri tanımağı öyrənə bilər.
Son bir neçə ildə Google və başqa aparıcı texnologiya şirkətləri nəhəng həcmdə mətnlərdən, hətta dərc olunmamış kitablardan, Vikipediya məqalələrindən öyrənən nevral şəbəkələrin yaradılması üzərində işləyiblər.
Bu “geniş dil modelləri” bir çox tapşırıqların yerinə yetirilməsinə cəlb oluna bilər. Onlar məqalələri ümumiləşdirə, suallara cavab verə, tvit postları və hətta bloqlar yaza bilərlər.
Lakin bu sistemlər son dərəcə qüsurludur. Onlar bəzən mükəmməl nəsr əsəri yaza bilirlər. Bəzən isə tam bir cəfəngiyyat quraşdırırlar. Bu sistemlər keçmişdə tanıdıqları məlumatları təkrar qura bilirlər, amma onları insan kimi əsaslandıra bilmirlər.