
Ջոշուա Ռոթման
Անցած գարնանը Դանիել Քոքոթայջլոն, ով ԱԲ-ի անվտանգությամբ զբաղվող հետազոտող էր OpenAI-ում, աշխատանքից հրաժարվեց՝ այդպիսով արտահայտելով իր բողոքը։ Նա համոզվել էր, որ ընկերությունը պատրաստ չէ նրան, ինչ բերելու է իր սեփական արտադրանքը ապագաում եւ ուզում էր ահազանգ հնչեցնել։ Երբ մեր ընդհանուր ընկերը կապեց մեզ, մենք հեռախոսով խոսեցինք։ Քոքոթայջլոն ինձ թվաց բարյացակամ, տեղեկացված եւ մտահոգ։ «Համապատասխանեցումը»՝ մեթոդների այն ամբողջությունը, որի նպատակն է ապահովել, որ ԱԲ-ն գործի մարդու հրահանգներին ու արժեքներին համապատասխան, ըստ նրա, հետ էր մնում ԱԲ-ի ինտելեկտուալ զարգացման տեմպերից։ Հետազոտողները նրա կարծիքով սլանում են հզոր համակարգերի ստեղծման ուղղությամբ, որոնք անկարող են վերահսկել։
Փիլիսոփայության մագիստրոսական ծրագրից ԱԲ ոլորտ անցում կատարած Քոքոթայջլոն պատմեց, թե ինչպես էր ինքնակրթվել, որպեսզի կարողանա հասկանալ այդ ոլորտը։ OpenAI-ում աշխատելիս նրա պարտականությունների մի մասը եղել է ԱԲ-ի առաջընթացին հետևելն ու կանխատեսումների ժամանակացույցեր կազմելը՝ որոշելու համար, թե երբ կարող են գերազանցվել այս կամ այն ինտելեկտուալ սահմանները։ Մի պահ տեխնոլոգիան այնքան անսպասելի արագությամբ սկսեց զարգանալ, որ ստիպված էր իր ժամանակացույցի մեջ խմբագրումներ անել՝ առաջ բերել ժամանակը, երբ արհեստական բանականությունը պիտի հատեր սահմանը։ 2021-ին նա գրել էր մի սցենար՝ «Ինչպիսին կլինի 2026 թվականը» վերնագրով։ Նրա կանխատեսած շատ բաներ իրականացան հռչակված տարեթվից շատ առաջ։ Նա եզրակացրել էր, որ «անդառնալիության կետը», երբ ԱԲ-ն կարող է գրեթե բոլոր կարևոր գործերում մարդկանց գերազանցել եւ արժանանալ մեծ վստահության ու լիազորության, հնարավոր է հասնի 2027-ին կամ ավելի շուտ։ Նրա ձայնը վախեցած էր։
Մոտավորապես նույն ժամանակահատվածում, երբ Քոքոթաջլոն լքեց OpenAI-ը, Փրինսթոնի երկու համակարգչային գիտնականներ՝ Սայաշ Կապուրը և Արվինդ Նարայանանը, պատրաստվում էին իրենց «Արհեստական բանականության օձի թույնը. ինչ կարող է անել արհեստական բանականությունը, ինչ չի կարող անել և ինչպես դա կռահել» գրքի հրատարակմանը։Այդ գրքում Կապուրն ու Նարայանանը, ովքեր ուսումնասիրում են տեխնոլոգիայի ներառումը հասարակության մեջ, առաջ էին քաշում տեսակետներ, որոնք տրամագծորեն հակադիր էին Քոքոթայջլոյի դիրքորոշմանը։
Նրանք պնդում էին, որ արհեստական բանականության ապագայի շատ ժամանակացույցեր չափազանց լավատեսական են, որ դրա օգտակարության մասին պնդումները հաճախ չափազանցված կամ ուղղակի ստահոդ են, և որ աշխարհի բարդության պատճառով նույնիսկ հզոր արհեստական բանականությունը կփոխի այն շատ դանդաղ։ Նրանք մեջբերում էին բազմաթիվ դեպքեր, երբ ԱԲ համակարգերից պահանջվել էր կարեւոր եզրահանգումներ անել, օրինակ՝ բժշկական ախտորոշման կամ աշխատակիցների ընտրության հարցերում, եւ դրանք արել էին սկսնակներին բնորոշ սխալներ, որոնք վկայում էին իրականությունից հիմնավոր կտրվածության մասին։ Նրանց համոզմամբ՝ նույնիսկ վերջին սերնդի համակարգերն ունեն այդ թերությունը։
Վերջերս երեք գիտնականներն էլ ավելի խստացրին իրենց դիրքորոշումները՝ հրապարակելով զեկույցներ, որոնք վերլուծությունները տանում են ավելի հեռու։ Քոքոթայջլոյի ղեկավարած ոչ շահույթաբեր AI Futures Project կազմակերպությունը հրապարակել է «AI 2027» անունով փաստաթուղթ՝ հղումներով խիստ հագեցած, որն ամփոփել են Քոքոթայջլոն եւ եւս չորս հետազոտող։ Փաստաթուղթը նկարագրում է սարսափեցնող մի սցենար, ըստ որի՝ «գերխելացի» ԱԲ համակարգերը մինչեւ 2030 թվականը կսկսեն գերիշխել մարդկության նկատմամբ, կամ կվերացնեն այն։ Այս զեկույցը լուրջ է գրված՝ որպես նախազգուշացում այն մասին, թե իրականում ինչ կարող է պատահել։
Մինչդեռ Կապուրն ու Նարայանանը՝ իրենց նոր «ԱԲ-ն՝ որպես սովորական տեխնոլոգիա» հոդվածում, պնդում են, որ գործնական խոչընդոտները՝ սկսած կարգավորիչ դաշտից ու մասնագիտական ստանդարտներից, մինչեւ իրական աշխարհում ֆիզիկական գործողություններ կատարելու դժվարությունը, էապես դանդաղեցնելու են ԱԲ-ի տարածումը եւ սահմանափակելու դրա վերափոխող ներուժը։ Թեեւ նրանք ընդունում են, որ ԱԲ-ն կարող է ի վերջո դառնալ հեղափոխական տեխնոլոգիա՝ էլեկտրականության կամ ինտերնետի մասշտաբով, միեւնույն է՝ պնդում են, որ այն կմնա «սովորական»՝ այսինքն՝ վերահսկելի՝ ծանոթ անվտանգության միջոցներով, ինչպիսիք են՝ անվտանգության համակարգերը, անջատիչները և մարդկային հսկողությունը։ «ԱԲ-ն հաճախ համեմատվում է միջուկային զենքի հետ,— գրում են նրանք,— սակայն ավելի ճիշտ համեմատությունը միջուկային էներգիան է», որը հիմնականում կառավարելի է մնացել եւ որոշ դեպքերում նույնիսկ թերօգտագործված՝ անվտանգության նկատառումներով։
Իսկ ի վերջո որն է ճիշտ՝ ամեն ինչ ընթանում է իր բնական հունո՞վ, թե՞ աշխարհը մոտ է վախճանին։ Ֆ․ Սքոթ Ֆիցջերալդը մի անգամ ասել է․ «Բարձրակարգ ինտելեկտի փորձությունը այն է, երբ կարողանում ես միաժամանակ երկու իրար հակադիր գաղափար պահել մտքումդ եւ միեւնույն ժամանակ շարունակել գործել»։ Երբ կարդում էի այս զեկույցները՝ մեկը մյուսի հետեւից, զգում էի, թե ինչպես եմ կորցնում այդ ունակությունը, իսկ երբ միեւնույն օրը զրուցեցի այդ հեղինակների հետ, բառացիորեն խելահեղ վիճակի մեջ ընկա։ «AI 2027»-ն ու «AI as Normal Technology»-ն փորձում են նկարագրել նույն իրականությունը եւ գրված են խորապես բանիմաց մասնագետների կողմից, բայց հանգում են բացարձակապես հակադիր եզրակացությունների։ Քննարկելով ԱԲ-ի ապագան Կապուրի, Նարայանանի եւ Քոքոթայջլոյի հետ՝ ինձ զգում էի այնպես, ինչպես եթե զրուցեի հոգեւորության մասին միաժամանակ Ռիչարդ Դոքինսի եւ Հռոմի պապի հետ։
Կույր մարդկանց եւ փղի մասին առակում բարի մտադրություններ ունեցող մի խումբ մարդիկ փորձում են հասկանալ անծանոթ մի էակի, բայց չեն կարողանում գալ համաձայնության, քանի որ ամեն մեկը կարծում է, թե այն մասնիկը, որ ինքը տեսել է, ամբողջի էությունն է։ Սա ԱԲ-ի խնդիրներից մեկն է․ շատ դժվար է ամբողջությամբ տեսնել մի նոր երեւույթ։ Բայց միեւնույն ժամանակ ճիշտ է նաեւ այն, ինչ գրում են Կապուրն ու Նարայանանը՝ «այսօրվա ԱԲ անվտանգության քննարկումներին բնորոշ են աշխարհայացքային խորքային տարբերություններ»։
Եթե փորձեմ ամփոփել այդ տարբերությունները, ապա լայն իմաստով կարելի է ասել՝ Արևմտյան ափի՝ Սիլիկոնյան հովտի մտածողները հակված են արագ վերափոխման տեսլականին, մինչդեռ Արևելյան ափի ակադեմիական գիտնականները դրանից խրտնում են։ ԱԲ հետազոտողները հավատում են փորձարարական արագ առաջընթացին, իսկ մյուս համակարգչային գիտնականները ձգտում են տեսական խստության։ ԱԲ ոլորտում ներգրավված մարդիկ ուզում են կերտել պատմություն, մինչդեռ ոլորտից դուրս գտնվողներն արդեն ձանձրացել են տեխնոլոգիական աղմուկից։
Միևնույն ժամանակ կան նաեւ քիչ ձեւակերպված, բայց ազդեցիկ տարբերություններ քաղաքական ու մարդաբանական հարցերում՝ ի՞նչ են ուզում մարդիկ, ինչպե՞ս է զարգանում տեխնոլոգիան, ինչպե՞ս են փոխվում հասարակությունները, ինչպե՞ս է աշխատում միտքը, ի՞նչ է «մտածելը» եւ այլն, որոնք էլ մարդկանց մղում են այս կամ այն ճամբարը ընտրել։
Հավելյալ խնդիր է այն, որ արհեստական ինտելեկտի մասին վիճելը անսովոր հետաքրքիր է։ Դա ինքնին կարող է ծուղակ լինել։ Երբ հայտնվեց «AI 2027»-ը, ոլորտի շատ մասնագետներ արձագանքեցին, ընդունելով հիմնական դրույթները եւ միաժամանակ միաժամանակ քննարկելով ժամանակացույցը (ինչո՞ւ ոչ «AI 2045»)։ Իհարկե, եթե մոլորակ ոչնչացնող աստերոիդ է ուղղվում դեպի Երկիր, դուք չեք ցանկանա, որ ՆԱՍԱ-ի պաշտոնյաները վիճեն այն մասին, թե արդյոք բախումը տեղի կունենա ճաշից առաջ, թե հետո. դուք կցանկանաք, որ նրանք գործողություններ իրականացնեն դրա ուղղությունը փոխելու համար։ Միեւնույն ժամանակ, այնպիսի պնդումները, ինչպիսին «AI as Normal Technology»-ում են հնչում՝ օրինակ, որ լավ կլինի մարդկանց ներգրավել կարեւոր գործողությունների մեջ՝ փոխարենը համակարգիչներին ամբողջական վերահսկողություն տալու, ընկալվում են այնքան անհուզիչ, նույնիսկ ձանձրալի, որ երկար ժամանակ չեն հնչեցվել ԱԲ-ի ոլորտում՝ հատկապես վերլուծաբանների կողմից, որոնք կենտրոնացած են վախճանաբանական սցենարների հավանականության վրա։
Երբ որևէ տեխնոլոգիա դառնում է այնքան նշանակալից, որ սկսում է ձևավորել հասարակության ընթացքը, դրա շուրջ տարվող խոսակցությունն էլ պետք է փոխվի։ Մասնագետների վեճերում պետք է տեղ բացվի այնպիսի համախոհության համար, որի վրա կարող են հիմնվել բոլոր մնացած մարդիկ՝ գործելու համար։ ԱԲ-ի վերաբերյալ նման համաձայնության բացակայությունը սկսել է իրական հետևանքներ ունենալ։ Երբ մասնագետները համախմբվում են միասնական առաջարկով, անտեսել նրանց դժվար է։ Իսկ երբ նրանք բաժանվում են իրար հակադիր ճամբարների, որոշում կայացնողներն ավելի հեշտությամբ անտեսում են երկուսին էլ և ոչինչ չեն անում։
Ներկայում «ոչինչ» է թվում գործող պլանը։ ԱԲ ընկերությունները էապես չեն փոխում իրենց արտադրանքի մեջ հնարավորությունների ու անվտանգության միջև հավասարակշռությունը։ ԱՄՆ Ներկայացուցիչների պալատում վերջերս ընդունված բյուջետային համաձայնեցման օրինագծում առկա է կետ, որն արգելում է նահանգային կառավարություններին առաջիկա տասը տարում կարգավորել «արհեստական բանականության մոդելները, համակարգերը կամ ավտոմատացված որոշումներ կայացնող համակարգերը»։ Եթե «AI 2027»-ը ճիշտ է, եւ այդ օրինագիծը վերածվի օրենքի, ապա այն պահին, երբ մեզ կթույլատրվի կարգավորել ԱԲ-ն, գուցե ԱԲ-ն արդեն սկսած լինի կարգավորել մեզ։ Մենք պետք է հիմա հասկանանք անվտանգության շուրջ տարվող խոսակցությունը՝ քանի խաղը ավարտված չէ։
Արհեստական բանականությունն իր էությամբ տեխնիկական թեմա է, սակայն դրա ապագան նկարագրելը պահանջում է գրական ճշմարտություն, պատմվող պատումները ունեն կառուցվածք, իսկ այդ կառուցվածքը ազդում է բովանդակության վրա։ Եթե ձգտում ես հավասարակշռված, զգուշավոր պահպանողականության, կարող ես թերագնահատել անհավանական հնարավորությունները։ Եթե գործի ես դնում երեւակայությունդ, կարող ես կենտրոնանալ հետաքրքիրի վրա՝ անտեսելով այն, ինչ ամենայն հավանականությամբ ակնկալվում է։ Կանխատեսումները կարող են ստեղծել կանխատեսելիության մի պատրանք, որը խեղաթյուրված է՝ ծուռ հայելիների այս աշխարհում։
2019 թվականին, երբ ես հարցազրույց էի անում գիտաֆանտաստիկ գրող Ուիլյամ Գիբսոնի հետ, որը հայտնի է իր մարգարեական հակումներով, նա նկարագրեց մի խուճապային պահ։ Ասաց, որ կարծել էր՝ վերահսկում է մոտ ապագան, բայց «հետո տեսա Թրամփին, երբ շարժասանդուղքով իջնում էր՝ իր թեկնածությունը հայտարարելու։ Իմ բոլոր սցենարային մոդուլները միաձայն սկսեցին ազդանշան տալ՝ բիպ-բիպ-բիպ»։ Մենք շեղվել ենք անսպասելի ուղով։
«AI 2027»-ը երեւակայությամբ լի, վառ ու մանրամասն նկարագրված սցենար է։ «Այո, դա կանխատեսում է, – վերջերս ինձ ասաց Քոքոթայջլոն,– բայց այն սցենարի ձեւաչափով է, ինչը կանխատեսման տեսակ է»։ Թեեւ այն մասամբ հիմնված է ԱԲ-ի միտումների վերլուծության վրա, գրված է գիտաֆանտաստիկ պատմության պես (գծապատկերներով) եւ նկարագրում է իրադարձություններ։ Հաճախ մանրամասն նկարագրված երեւակայական դրվագները ակնարկում են, որ դրանք փոխվող են։ Արդյոք իսկապե՞ս գալու է մի պահ՝ օրինակ՝ 2027-ի հունիսին, երբ ինքնազարգացող ԱԲ-ի հորինած ծրագրավորողները «նստած կլինեն համակարգիչների առաջ եւ կդիտեն՝ ինչպես է ԱԲ-ի արդյունավետությունն աճում ու աճում, շարունակ աճում»։ Արդյո՞ք Չինաստանի կառավարությունը ի պատասխան կառուցելու է «մեգա-տվյալների կենտրոն» Թայվանի «Կենտրոնացված զարգացման գոտում»։ Այս կոնկրետ մանրամասները սցենարը դարձնում են ավելի ազդեցիկ, բայց գուցե էական չեն։ Ամենակարեւորը, ըստ Քոքոթայջլոյի, հետեւյալն է՝ «հավանական է, որ տեղի է ունենալու ինտելեկտի պայթյուն, եւ լինելու է խելահեղ աշխարհաքաղաքական պայքար՝ ԱԲ-ի վերահսկողության համար»։
Ինտելեկտի այդ «պայթյունի» մանրամասներին է, որ պետք է հետևենք։ «AI 2027»-ի սցենարը կենտրոնանում է արհեստական բանականության զարգացման մի ձևի վրա, որը հայտնի է որպես կրկնարկմամբ ինքնազարգացում (recursive self-improvement, կամ R.S.I.)։ Այս մոտեցումը դեռ հիմնականում հիպոթետիկ է։ Զեկույցի պատմության մեջ R.S.I.-ն սկսվում է այն պահից, երբ ԱԲ ծրագրերը դառնում են ունակ ինքնուրույն ԱԲ հետազոտություններ կատարելու (ներկայում դրանք միայն օգնում են մարդ հետազոտողներին)։ Այս ԱԲ «գործակալները» շուտով հասկանում են, թե ինչպես անել, որ իրենց «զավակները» ավելի խելացի դառնան, իսկ այդ «զավակները» նույնը անում են իրենց հաջորդների համար՝ ստեղծելով չընդմիջվող ինքնազարգացման շղթա։
Այս գործընթացը արագանում է, երբ ԱԲ-ները սկսում են գործել որպես համագործակիցներ՝ հաղորդագրություններ փոխանակելով, աշխատանք բաժանելով միմյանց միջեւ և կազմելով մի «ընկերություն ընկերության ներսում», որը դառնում է ավելի արագ եւ արդյունավետ, քան այն ընկերությունը, որի կազմում սկզբում գործել են։ Վերջիվերջո, ԱԲ-ները սկսում են այնքան արագ ստեղծել իրենց ավելի լավ սերունդները, որ մարդկային ծրագրավորողները պարզապես ժամանակ չեն ունենում ուսումնասիրել դրանք ու հասկանալ՝ վերահսկելի՞ են, թե՞ ոչ։
Կարծես արհեստական բանականության մասին երբևէ գրված գրեթե բոլոր գիտաֆանտաստիկ վեպերն էլ հուշում են, որ կրկնարկվող ինքնակատարգելագործումը (RSI) կիրառելը վատ գաղափար է։ Խոշոր ԱԲ ընկերություններն իրենք էլ RSI-ը ճանաչում են որպես ռիսկային մոտեցում, բայց չեն հայտարարում, որ հրաժարվելու են դրանից։ Փոխարենը խոստանում են, որ եթե գնան այդ ուղղությամբ, ապա կուժեղացնեն իրենց անվտանգության մեխանիզմները։
Միեւնույն ժամանակ, եթե այս մոտեցումը գործի, դրա տնտեսական ներուժը կարող է հսկայական լինել։ RSI-ին հետամուտ լինելը Քոքոթայջլոյի կարծիքով «անպայման մի ընտրություն է, որն այդ ընկերությունները պատրաստակամ են անել»։ «Դա պլանն է։ OpenAI-ն ու Anthropic-ը նախատեսում են նախ ավտոմատացնել իրենց սեփական աշխատանքները»։
Կարո՞ղ է այսպիսի RSI-ն աշխատել։ (Այդպես երբեք չի արվել։) Արդյո՞ք այն կախված չէ այլ տեխնոլոգիական գործոններից․ օրինակ՝ «մասշտաբավորումից» (scaling)՝ այսինքն՝ այն կարողությունից, որով ԱԲ-ն լավանում է, երբ նրան տրամադրվում է ավելի շատ հաշվարկային ռեսուրս։ Այս գործոնն անցյալում իրոք աշխատել է, բայց գուցե ապագայում դադարի գործել։ (Որոշ վերլուծաբաններ կարծում են, որ այն արդեն սկսել է դանդաղել)։
Եթե RSI-ն սկսի գործել, արդյո՞ք դրա առաջընթացը կհասնի պատվարի, թե՞ կշարունակվի մինչև «արհեստական սուպերբանականություն» կոչվող մակարդակի ի հայտ գալը՝ մի աստիճանի, որը գերազանցում է մարդկային մտքի կարողությունները։ «Շատ տարօրինակ կլիներ, եթե ինտելեկտի սահմանը պատահաբար գերազանցեր մարդու հնարավորություններից», – նշում է Քոքոթայջլոն։
Հնարավոր սցենարները շարունակում են բազմապատկվել։ Արդյո՞ք գերբանականության վրա հիմնված նորարարությունը չի խթանի ռազմականացված սպառազինությունների մրցավազքը։ Կարո՞ղ են սուպերբանական ԱԲ-ները ի վերջո կառավարել կամ վերացնել մեզ՝ հետապնդելով իրենց համար անհասկանալի նպատակներ։ (Ըստ «AI 2027»-ի՝ նրանք սպառում են Երկրի ռեսուրսները՝ կատարելով այնպիսի գիտական հետազոտություններ, որոնք մենք պարզապես խելքով չենք հասկանա)։ Թե՞ ավելի լավատեսական զարգացման պարագայում հենց իրենք կլուծեն «համապատասխանեցման խնդիրը»՝ կամ ինքնաբերաբար դարձնելով իրենց վերահսկելի, կամ վերածվելով բարեգութ աստվածների՝ կախված մեր տեսանկյունից։
Ոչ ոք իրականում հաստատ չգիտի։ Դա մասամբ պայմանավորված է նրանով, որ արհեստական բանականությունը անկայուն և փոփոխվող ոլորտ է, որտեղ կարծիքները տարբերվում են, մասամբ պատճառն այն է, որ արհեստական բանականության վերջին հետազոտությունների մեծ մասը մտավոր սեփականություն է եւ չի հրապարակվում, մասամբ էլ որովհետեւ հիմնական ենթադրվող հարցերի վերաբերյալ հստակ պատասխաններ չեն կարող լինել՝ միայն հավանականություններ։ «ԱԲ 2027»-ը ներկայանում է այնպիսի վստահությամբ ու պատմողական կրքով, որ մոռացության է մատնում իր թեմայի մեջ առկա անորոշությունները։ Այն, թե որքանով է սցենարը հիմնված տեխնոլոգիական չափազանց լավատեսական կանխատեսումների շղթայի վրա, կարելի է համարել թերություն՝ գուցե լուրջ թերություն։ (Իմ մի լավատեղյակ ծանոթը զեկույցի հայացքները վերագրում էր «ԱԲ-ով հրապուրված այո-ասողների» խմբին)։ Բայց իրականում հենց այս կողմնակալությունն է սցենարների արժեքավոր կողմերից մեկը։ Անորոշության պայմաններում մենք հակված ենք հնարավոր անցանկալի տարբերակները դիտարկել որպես մաքուր հիպոթետիկ։ Սակայն երբ կարդում ենք որևէ սցենար, այն ստիպում է գոնե ժամանակավորապես հավատալ հնարավոր իրականությանը։ «ԱԲ 2027»-ը, ինչպես ասում է Քոքոթայջլոն, «շատ տարբեր չէ» այն թեմաներից, որոնք քննարկվում են «այս ընկերությունների ճաշարաններում»։ Նրանք դրա մասին խոսում են։ Այժմ մենք էլ ենք սկսում պատկերացնել։ Բայց իրենք իսկապես պատկերացնո՞ւմ են։ Արդյո՞ք այնքան լուրջ են վերաբերվում դրան, որ եթե երբևէ կանգնեն RSI-ի վերաբերյալ կարևոր ընտրության առաջ, ճիշտ որոշում կկայացնեն։
Քոքոթայջլոն ասում է՝ լուրջ չեն վերաբերվում։ Արհեստական բանականության մասին տարածված թյուրըմբռնումներից մեկն այն է, թե վտանգավոր կամ անսանձելի տեխնոլոգիան կարող է պարզապես «առաջանալ» առանց մարդկային միջամտության։ («Ասում են՝ խելք է հավաքել», — ասում է ինչ-որ մեկը «Տերմինատորում»՝ Սքայնեթի մասին։) Բայց «AI 2027» սցենարում ներկայացվում է մի շարք բացասական որոշումների շղթա, որոնք կայացվում են գիտակցաբար՝ սկսած այն որոշումից, երբ հետազոտողները ստեղծում են ինքնազարգացող ԱԲ՝ նախքան սովորելու, թե ինչպես պետք է դրա ներսը նայեն ու մեկնաբանեն դրա «մտքերը»։ Սցենարը պնդում է, որ մրցակցության և գիտական հետաքրքրության մղումով ԱԲ ոլորտում աշխատող մարդիկ գիտակցաբար պատրաստ են անել այն, ինչ «Պատերազմ-խաղերը» տեսած յուրաքանչյուր ոք կարող է ասել, որ չանեն։ «Եթե դուք աշխատում եք այս ընկերություններում և խոսում եք նրանց հետ այն մասին, թե ինչպես են նրանք վարվելու, ինչը ես արեցի, նրանք ձեզ կասեն, որ դա անելու են»,- պատմեց ինձ Քոքոթայջլոն։ «Նրանք գիտեն, որ դեռ լուծված չէ «մեկնելիությունը» (interpretability). նրանք ի վիճակի չեն լավ ստուգել ԱԲ-ի ներքին նպատակները կամ ճշգրիտ կանխատեսել, թե ինչպես կվարվի ԱԲ-ն ապագայում։ Բայց ամեն դեպքում առաջ են շարժվում»։ «AI 2027»-ը մասամբ տեխնոլոգիական սցենար է, բայց նաեւ՝ մարդկային։ Այն ենթադրում է, որ իրականում անհամապատասխան են (misaligned) հենց ԱԲ ընկերությունները։
Ի տարբերություն «AI 2027»-ի, «Արհեստական բանականությունը որպես սովորական տեխնոլոգիա» (AI as Normal Technology) վերլուծությունը կրում է արևելյան ափին բնորոշ զգուշավորության և գիտական պահպանողականության շունչ։ Այն չոր, կշռադատված վերլուծական փաստաթուղթ է, որի հեղինակները հենվում են անցյալի փորձի վրա։
Նարայանանն ու Կապուրը մեծապես չեն մտահոգվում սուպերբանականության կամ հնարավոր «ինտելեկտուալ պայթյունի» մասին։ Նրանց համոզմամբ՝ ԱԲ-ի առաջընթացը կանգ է առնելու «արագության սահմանների» վրա, որոնք կկանխեն գերարագ զարգացումը։ Նույնիսկ եթե սուպերբանականությունը հնարավոր է, նրանք կարծում են, որ դրա ստեղծման համար տասնամյակներ են պետք, ինչը ժամանակ է տալիս օրենքներ ընդունելու, անվտանգության համակարգեր ներդնելու եւ այլն։ Նրանց մատնանշած արագության սահմանները մասամբ վերաբերում են հենց ԱԲ-ին՝ պայմանավորված լինելով, օրինակ, ԱԲ-ի ապարատային ռեսուրսների բարձր արժեքով, ուսուցման տվյալների պակասով եւ նման այլ գործոններով։ Բայց Կապուրն ու Նարայանանը կարծում են, որ դրանք նաեւ տեխնոլոգիական առաջընթացին բնորոշ ընդհանուր սահմանափակումներ են, քանի որ տեխնոլոգիան, ըստ պատմական օրինաչափությունների, աշխարհը սովորաբար փոխում է ավելի դանդաղ, քան մարդիկ կանխատեսում են։
Կապուրը և Նարայանանը պնդում են, որ ԱԲ-ի ոլորտի մասնագետների հասկանալի, բայց միակողմանի կենտրոնացումը «ինտելեկտի» վրա կարող է մոլորեցնող լինել։ Նրանց կարծիքով, դառը ճշմարտությունն այն է, որ ինտելեկտը՝ որպես ինքնանպատակ, սահմանափակ գործնական արժեք ունի։ Իրական աշխարհում ամենակարևորը իշխանությունը «միջավայրը փոխելու ունակությունն» է։ Նրանք նշում են, որ նորարարությունների պատմության մեջ բազմաթիվ տեխնոլոգիաներ ունեցել են հիասքանչ կարողություններ, բայց չեն ապահովել իրական իշխանություն իրենց ստեղծողների կամ օգտագործողների համար։ Օրինակ՝ զարմանալի է, որ որոշ ավտոմեքենաներ կարող են ինքնուրույն վարել։ Սակայն ԱՄՆ-ում ինքնավար մեքենաները սահմանափակված են մի քանի քաղաքներով և գործարկվում են միայն մի քանի ընկերությունների կողմից՝ որպես ռոբոտ-տաքսիներ։ Այսինքն՝ տեխնոլոգիան ունակ է, բայց ոչ հզոր։ Հավանական է, որ այն կփոխի տրանսպորտային համակարգը օրերից մի օր։
Արհեստական բանականության հետազոտողները հաճախ մտահոգվում են, որ ԱԲ-ն ինքնին կարող է չափազանց հզոր դառնալ։ Բայց Կապուրը և Նարայանանը նախընտրում են մարդակենտրոն մտածողություն․ տեխնոլոգիայի նպատակը հզորանալը չէ, այլ մեզ հզորացնելը։ «Մարդիկ միշտ էլ օգտագործել են տեխնոլոգիան՝ մեր միջավայրը վերահսկելու կարողությունը բարձրացնելու համար», — գրում են նրանք։ Բայց նույնիսկ ամենահզոր տեխնոլոգիաները մեզ իրականում հզորացրել են շատ դանդաղ։ Նոր գյուտերը երկար ժամանակ են պահանջում, մինչև «տարածվեն» հասարակության մեջ՝ լաբորատորիաներից դեպի արտաքին աշխարհ։
«ԱԲ 2027»-ը ենթադրում է, որ «հիվանդությունների մեծ մասի բուժումները» կարող են ի հայտ գալ արդեն 2029 թվականին։ Բայց Կապուրի ու Նարայանանի դիտանկյունից եթե նույնիսկ այդ բուժումների մտավոր մշակումն արագացվի ԱԲ-ով, մենք, այնուամենայնիվ, ստիպված կլինենք երկար սպասել դրանցից օգտվելու համար։ Նույնը՝ եթե ԱԲ համակարգը արագացնի կյանք փրկող բժշկական սարքի ստեղծումը, այդ սարքը դեռ պիտի հաստատվի Սննդի ու Դեղերի Վարչության (FDA) կողմից։ Իսկ եթե անգամ գերբանականությունը լուծի ջերմաէներգիայի խնդիրը, տեխնոլոգիան դեռ պետք է փորձարկվի, և պետք է գտնվի առաջարկվող ատոմակայանի տեղանք՝ հարևաններով, որոնք պատրաստ են ապրել դրա կողքին: (ԱՄՆ-ում վերջին ատոմակայանի կառուցումը Ջորջիայի Ուեյնսբորո քաղաքում, տևեց 14 տարի և գրեթե 20 միլիարդ դոլարով գերազանցեց իր բյուջեն)։ «Իմ ամենասիրելի օրինակը Moderna-ն է»,- ասել է Կապուրը։ Երբ չինացի գիտնականները գաղտնագրեցին SARS-CoV-2-ի գենոմը (այս վիրուսն է առաջացնում COVID-19-ը), Moderna-ին «մի շաբաթից պակաս ժամանակ էր պետք պատվաստանյութ ստեղծելու համար։ Բայց դրա փորձարկումը տևեց մոտ մեկ տարի»։ Հնարավոր է, որ ԱԲ-ն պատվաստանյութերն ավելի արագ նախագծի, բայց կլինիկական փորձարկումները՝ կախված մարդու կենսաբանական գործընթացներից, պարզապես ժամանակ են պահանջում։
Նարայանանի խոսքով՝ համոզմունքը, թե բանականության զարգացումը կբերի տեխնոլոգիական արդյունքների արագ և ուղիղ ի հայտ գալուն, արտացոլում է ծրագրավորողների շրջանում «ոլորտին բնորոշ» բարդության և փորձագիտության թերագնահատումը: «Ծրագրային ապահովման ճարտարագիտությունը, չնայած անվան մեջ առկա ճարտարագիտություն բառին, պատմականորեն կտրված է ինժիներիայի մյուս ճյուղերից», – ասաց նա: Սա նշանակում է, որ ԱԲ անվտանգության հարցերով զբաղվող հետազոտողներն էլ կարող են թերագնահատել այն համակարգերը, որոնք արդեն իսկ պահպանում են մեր անվտանգությունը։ Կապուրը և Նարայանանը հատկապես կենտրոնանում են արդյունաբերական անվտանգության պրակտիկաների վրա, որոնք ձևավորվել և ապացուցել են իրենց արդյունավետությունը տասնամյակների ընթացքում։ Գործարաններում, օրինակ, պահեստային համակարգերն ու հոսանքի անջատիչները ապահովում են, որ համակարգերը վթարային իրավիճակներում անցնեն անվնաս ռեժիմի։ (Օրինակ՝ մեքենաները կարող են ինքնաբերաբար անջատվել, եթե ածխածնային մոնօքսիդի մակարդակը բարձրանա, կամ եթե իրենց ներսում մարդ հայտնաբերեն)։ Կրկնակիությունը թույլ է տալիս մենեջերներին իմանալ, թե երբ է ինչ-որ սարք անսովոր արդյունք տալիս: Իսկ «պաշտոնական վավերացման» (formal verification) նման պրոցեսները՝ որոնց ժամանակ համակարգերը ենթարկվում են հատուկ նախագծված անվտանգության կանոնների, սովորաբար օգտագործվում են այն դեպքում, երբ մարդիկ աշխատում են բարդ մեքենաների հետ։
Այս տեսանկյունից աշխարհն արդեն իսկ համեմատաբար լավ կարգավորված համակարգ է, և արհեստական բանականությունը պետք է աստիճանաբար ներառվի այդ կանոնների ցանցին։ Եթե կա հարց, որ պետք է բարձրացնել, հետևյալն է․ արդյո՞ք մենք հավատում ենք, որ ԱԲ-ի ղեկին կանգնածները պարտավոր են հետևել այդ կանոններին։ Կապուրը և Նարայանանը իրենց վերլուծության մեջ նշում են «մի կարևոր վերապահում». «Մենք միտումնավոր կերպով բացառել ենք ռազմական ԱԲ-ը… քանի որ այն ներառում է գաղտնի հնարավորություններ և յուրահատուկ դինամիկա, որը պահանջում է ավելի խորքային վերլուծություն»։
Իսկ «ԱԲ 2027»-ը գրեթե ամբողջությամբ կենտրոնացած է արհեստական բանականության ռազմականացման վրա, որն արագ է ընթանում՝ հենց որ ի հայտ են գալիս դրա պաշտպանական հետևանքները (օրինակ՝ «Ի՞նչ կլինի, եթե ԱԲ-ը խաթարի միջուկային զսպման մեխանիզմը»): Այս երկու զեկույցները, դիտարկված համատեղ, հուշում են, որ ռազմական ԱԲ-ի կիրառումների նկատմամբ պետք է ուշադիր վերահսկողություն լինի։
Իր հերթին, «ԱԲ-ն որպես նորմալ տեխնոլոգիա»-ն տալիս է կոնկրետ խորհուրդներ՝ տարբեր ոլորտների ղեկավարներին։ Մի սպասեք, որ ԱԲ ընկերություններն իրենք կհարմարեցնեն իրենց մոդելները։ Փոխարենը սկսեք ձեր ոլորտում ԱԲ-ի կիրառման մշտադիտարկումը։ Փնտրեք եղանակներ՝ դրա ռիսկերի և ձախողումների ապացույցները դիտարկելու համար։ Եվ ամրապնդեք կամ նոր կանոնակարգեր ներդրեք, որոնք կդարձնեն մարդկանց և հաստատությունները առավել կայուն՝ այս տեխնոլոգիայի տարածման պայմաններում։
«Աշխարհընկալումների խորքային տարբերություններ»․ այս բնորոշումը միանգամայն տեղին է։ Բայց ի՞նչ է աշխարհընկալումը ի վերջո։ Աշխարհընկալումները հաճախ արձագանք են։ Մենք ձևավորում ենք դրանք որպես պատասխան արտաքին ազդակներին։ Իսկ արհեստական բանականությունն անսովոր չափով խթանող ազդակ է։ Այն ստիպում է մարդկանց վերանայել՝ ինչ նպատակ է հետապնդում տեխնոլոգիան, որն է առաջընթացի բնույթը, և ինչպե՞ս են հարաբերվում գյուտարարներն ու հասարակության մնացած մասը։ Դա Ռորշախի թեստ է։ Այն հարուցում է ավելին, քան պարզապես տեխնոլոգիական վեճն է, այն արձագանքում է այն բանին, թե ինչպես ենք մենք այսօր մտածում, վիճում, համաձայնվում կամ անընդհատ միմյանց հակադրվում։ ԱԲ-ն հայտնվել է հատուկ ժամանակահատվածում՝ մի բանավեճային մշակութային դաշտում, որտեղ կարծիքներն ուժեղ են, առարկությունները՝ ակնթարթային, իսկ տարբերությունները՝ ընդգծված։ Մտավոր կյանքի դինամիկան հանգեցնում է համառության ու դիրքավորման՝ նվազեցնելով հետքայլ կատարելու ընդունակությունը։ Մենք նույնպես ունենք հետադարձ կապի շղթաներ։
Արդյո՞ք գոյություն ունի աշխարհընկալում, որը կարող է միավորել «AI 2027»-ի և «AI as Normal Technology»-ի տեսակետները։ Կարծում եմ՝ այո։ Պատկերացրեք, որ քայլում եք արտադրամասի միջով։ Մի ցուցանակ ասում է՝ «Անվտանգությունը՝ ամենից առաջ»։ Աշխատողները կրում են սաղավարտներ ու բարձր նշմարվող պաշտպանիչ հանդերձանք։ Մեքենաները չեն ղեկավարում գործարանը․ փոխարենը՝ աշխատողները ղեկավարում են մեքենաները, որոնք նախագծված են ոչ միայն արտադրության, այլև մարդկանց անվտանգությունն ապահովելու համար։
Այս երեւակայական արտադրամասում լրջորեն մտածել են վատագույն հեռանկարների մասին։ Որակյալ վերահսկողությունն առաջնահերթ է։ Լավ ֆինանսավորվող տեխնիկական խումբը պարբերաբար զննում է մեքենաները և անհրաժեշտության դեպքում հարմարեցնում է դրանք գործարանի պահանջներին։ Գիտնականները երբեմն ստեղծում են խոստումնալից նորարարություններ հետազոտությունների բաժնում, բայց այդ նորույթները նախքան արտադրական գծին փոխանցվելը մանրամասն ուսումնասիրվում են և աշխատողների հետ անցկացվում են քննարկումներ։
Ավելին, այս գործարանը ունի առաքելություն։ Աշխատողները գիտեն՝ ինչ են փորձում ստեղծել։ Նրանք չեն արտադրում այն, ինչ պատահմամբ սարքել են մեքենաները։ Նրանք ուղղորդում են մեքենաներին դեպի հստակ ձևակերպված նպատակներ։
Շատերս շուտով կարող ենք հայտնաբերել մեզ մտավոր «արտադրամասերի» տարածքում։ Ինչ էլ որ անենք, հնարավոր է՝ աշխատենք մեքենաների կողքին կամ նրանց հետ։ Քանի որ այդ մեքենաները կարող են ավտոմատացնել մեր մտածողության մի մասը, գայթակղիչ կլինի ձեռքերը հանել ղեկից։ Բայց այդպիսի արտադրամասում, եթե տեղի ունենա վթար կամ վաճառվի թերի արտադրանք, ո՞վ է պատասխան տալու։ Իսկ եթե արտադրամասը լավ կառավարվում է, իսկ արտադրանքները հրաշալի են, ո՞վ է արժանանալու գովասանքի։
Արհեստական բանականության հայտնվելը չի կարող նշանակել պատասխանատվության ավարտը։ Ընդհակառակը՝ դա ավելի կարեւոր է դարձնում այն։ Երբ մեկ անձ կարողանում է անել ավելին, նա դառնում է նաև ավելի շատի պատասխանատուն։ Երբ սենյակում մարդկանց քանակը նվազում է, պատասխանատվությունն ավելի է խտանում։ Աշխատողը, որը հեռանում է մեքենայից, ինքն է որոշում հեռանալ։ Արհեստական բանականությունը միայն մակերեսային հայացքով նայելիս է իբր ազատում մեզ գործելու պատասխանատվությունից։ Իրականում, այն մեզ մարտահրավեր է նետում՝ ճանաչելու, որ վերջիվերջո ղեկն էլի մեր ձեռքերում է։
Թարգմանեց Գայանե Պողոսյանը
Աղբյուրը՝ The New Yorker
