Meta-ի գործադիր տնօրեն Մարկ Ցուկերբերգը խոստացել էր հանրությանը հասանելի դարձնել մարդկային բանականությանը չզիջող AGI-ը (Artificial general intelligence)։ Սակայն այժմ ընկերության քաղաքականության փաստաթղթերից մեկը թվարկում է սցենարներ, որոնց համաձայն ընկերությունը կարող է չեղարկել առաջադեմ արհեստական ինտելեկտի համակարգի թողարկումը, գրում է TechCrunch-ը։
Frontier AI Framework կոչվող փաստաթղթում Meta-ն առանձնացնում է երկու տեսակի AI համակարգեր, որոնք համարվում են չափազանց ռիսկային՝ թողարկելու համար։ Դրանք են «բարձր ռիսկի» և «կրիտիկական ռիսկի» համակարգերը: Սրանք համակարգեր են, որոնք կարող են օգնել պոտենցիալ հարձակվողներին հաղթահարել կիբերանվտանգության միջոցառումները և իրականացնել քիմիական և կենսաբանական հարձակումներ: Տարբերությունն այն է, որ «կրիտիկական ռիսկի» համակարգերը կարող են առաջացնել «աղետալի արդյունք, որը հնարավոր չէ մեղմել տեղակայման համատեքստում». «Բարձր ռիսկային» համակարգերը կարող են նաև հեշտացնել հարձակվողների հարձակումը, սակայն դրանք ավելի քիչ անվտանգ են, քան «կրիտիկական ռիսկի» համակարգերը:
Meta-ն մեջբերում է նման հարձակումների մի քանի հիպոթետիկ օրինակներ, այդ թվում՝ «բարձր արդյունավետ կենսազենքի տարածումը»: Փաստաթղթում ներկայացված սպառնալիքների ցանկը սպառիչ չէ, ընկերությունը նշում է, որ այն ներառում է միայն այն կետերը, որոնք համարվում են ամենահրատապը և, ամենայն հավանականությամբ, առաջանում են հզոր AI-ի անմիջական աշխատանքի արդյունքում։ Համակարգային սպառնալիքները դասակարգվում են ոչ թե գործնական փորձի հիման վրա, այլ որոշում կայացնողների կողմից հաստատված ներքին և արտաքին ուսումնասիրությունների տվյալների հիման վրա. Meta-ն վստահ չէ, որ գիտական գործիքները «բավականաչափ վստահելի են՝ ապահովելու վերջնական քանակական ցուցանիշներ», որոնք որոշում են համակարգի սպառնացող վտանգի աստիճանը:
Եթե Meta-ն որոշի, որ համակարգերից մեկը դասակարգվում է որպես «բարձր ռիսկային», ապա ընկերության ներսում այդ համակարգ մուտքը կսահմանափակվի, և դրա թողարկումը կհետաձգվի այնքան ժամանակ, մինչև «չափավոր մակարդակի» մեղմացնող միջոցներ ձեռնարկվեն: Եթե ռիսկը դասակարգվում է որպես «կրիտիկական», Meta-ն պարտավոր է կիրառել անվտանգության միջոցներ, որոնք չի թվարկել և դադարեցնել զարգացումը այնքան ժամանակ, մինչև համակարգը դառնա ավելի քիչ վտանգավոր: Ընկերությունը մտադիր է թարմացնել փաստաթուղթը, քանի որ AI արդյունաբերությունը զարգանում է, և այն կհրապարակվի այս ամիս Ֆրանսիայի AI Action Summit-ից առաջ:
Կարդացե՛ք նաև.