Հանդիպել Բահայիների Հետ
Լրացնել հայտը Բահայների հետ հանդիպելու համար
Խնդրում ենք նշել հանդիպման նպատակը և այլ լրացուցիչ տվյալներ

Բոլոր “*”-ով դաշտերը պարտադիր են

Գիտություն և կրոն. Ո՞վ է սահմանում AI-ի էթիկան
Հոդվածներ

Գիտություն և կրոն. Ո՞վ է սահմանում AI-ի էթիկան

2022 թվականի նոյեմբերից ChatGPT-ը և այլ արհեստական ինտելեկտի (AI) ծրագրերը ոգևորված և երբեմն կատաղի դիսկուրսներ են առաջացրել հասարակության, լրատվամիջոցների, գիտության, տնտեսագիտության և նույնիսկ կրոնի մեջ:

 

Կամ մենք դատապարտված ենք, կամ փրկված ենք, ասում են փորձագետները։ Հարցերը շատ են։ Արդյո՞ք AI-ը շուտով կգերազանցի մարդկային բանականությունը: Արդյո՞ք ինքնավար ուսուցման մեքենաները վերահսկողություն կվերցնեն հասարակության բոլոր ասպեկտների վրա: Արդյո՞ք մարդկությունը հնացել է:

 

Արհեստական ինտելեկտի հանդեպ խանդավառությունը միախառնված է զգալի էթիկական և բարոյական կասկածներով և հարցերով: Արդյո՞ք այն կվերածվի մղձավանջի, թե՞ պարզապես աղմուկ է, որը կմոռացվի:

 

Պարզ ասենք՝ քննարկումը դեռ վաղ փուլում է։ ChatGPT-ն ներկայումս հանրության կողմից ընկալվում է որպես AI-ի առաջատարը, սակայն այն իր տեսակի մեջ գոյություն ունեցող մի քանի AI համակարգերից միայն մեկն է: Ընդամենը վեց ամսվա ընթացքում այն գրավել է ավելի քան 100 միլիոն ինտերնետ օգտագործող ամբողջ աշխարհում:

 

Ինչո՞ւ։ - լավ, քանի որ այս AI-ի վրա աշխատող լեզվի մոդելը արագ, մանրամասն և համեմատաբար ընթեռնելի լեզվով առաջացնում է պատասխաններ, պատրաստված ելույթներ կամ նույնիսկ քննական փաստաթղթեր՝ հիմնված հարցի կամ հիմնաբառի վրա: Արագ մշակված՝ հիմնվելով միլիոնավոր վեբ էջերում արդեն իսկ առկա գիտելիքների վրա, այն կատարում է այս խնդիրները՝ շնորհիվ ալգորիթմի, որն աներևակայելի արագությամբ կառուցում է վիճակագրորեն ամենահավանական, բայց դեռևս նշանակալի բառերի հաջորդականությունը:

 

Ակնհայտ է, որ նման ինքնավար ուսուցման համակարգերն արդեն կարող են որոշ ոլորտներում գերազանցել մարդկային ուղեղին: Արհեստական ինտելեկտի համակարգերը, այսպես կոչված, «նեյրոնային ցանցերի» միջոցով գործելով փորձում են հնարավորինս ընդօրինակել մարդու ուղեղը, սակայն մարդու ուղեղի ծայրահեղ բարդությունը մնում է առեղծված և շարունակական հետազոտության առարկա: Ընդհանուր առմամբ, արհեստական ինտելեկտի համակարգերն ուղղված են լայն խնդիրների լուծմանը՝ սկսած լեզվի կամ պատկերի ճանաչումից մինչև ինքնավար լուծումներ, որպեսզի ճշգրիտ վերարտադրեն մարդկային բանականությունը: Դիմումները ընդգրկում են գրեթե ամեն ինչ՝ լինի դա առողջապահություն, հետազոտություն, կրթություն, կառավարություն, տնտեսագիտություն կամ նույնիսկ ռազմական գործողություններ:

 

Շատերը AI-ն համարում են մարդկության ամենամեծ հայտնագործություններից մեկը, իսկ մյուսները վախենում են, որ դա կհանգեցնի մարդկության կործանմանը: Արդյո՞ք ռիսկերը գերակշռում են օգուտներին: Աշխատատեղերը մեծ մասշտաբով կկործանվե՞ն։ Արդյո՞ք համակարգիչները ի վերջո որոշումներ կկայացնեն հիվանդների և նրանց առողջության վերաբերյալ: Արդյո՞ք համակարգիչները շահարկելու են ընտրողների կարծիքները՝ դրանով իսկ վերահսկելով մարդկանց ոչ թափանցիկ եղանակներով:

 

Նույնիսկ փիլիսոփաները վիճում են, թե արդյոք արհեստական ինտելեկտը կարող է զարգացնել իր սեփական «գիտակցության» պես մի բան, որը գուցե տարբերվում է մարդկային գիտակցությունից, բայց ինչ-որ «արհեստական բարոյականությամբ» և մեղքի կամ կարեկցանքի զգացումով է օժտված։

 

Արդեն մի քանի տարի է, ինչ անհանգստության և նախազգուշացման ձայներ են լսվում՝ տեխնոլոգիայի ղեկավարներից, անհատներից, մշակութային գործիչներից, բոլոր բնագավառների գիտնականներից, պատասխանատու քաղաքական գործիչներից և եկեղեցիների և կրոնական համայնքների ներկայացուցիչներից: 2023 թվականի ապրիլին բազմաթիվ հասարակական գործիչներ, ներառյալ տեխնոլոգիական ձեռներեցները և ChatGPT-ի մշակողները, բաց նամակով կոչ արեցին վեց ամսով «դադարեցնել» արհեստական ինտելեկտը:

 

Այնուհետև, AI-ի անվտանգության կենտրոնի հարյուրավոր AI փորձագետների հետ միասին, վերջերս իրենց ձայնը բարձրացրին OpenAI/ChatGPT-ի առաջատար մշակողները՝ Սեմ Ալթմանը և Google/DeepMind-ը՝ Դեմիս Հասաբիսը: 2023 թվականի մայիսի վերջին նրանք բաց նամակով նախազգուշացրին հակիրճ, բայց հուզիչ հաղորդագրությամբ չկարգավորված «մեքենայական ինտելեկտի» վտանգների մասին՝ նշելով, որ «IA-ի ոչնչացման ռիսկի նվազեցումը պետք է լինի գլոբալ առաջնահերթություն՝ սոցիալական մասշտաբի այլ ռիսկերի հետ միասին, ինչպիսիք են համավարակները և միջուկային պատերազմը»:

 

Բահայի հավատն իր դիրքորոշումն ունի գիտությանն ու կրոնին վերապահված դերի և իր ուսմունքներում ամբողջ մարդկության միասնության վրա դրած կենտրոնական դիրքի մասին:

 

Տեխնոլոգիական համայնքի նախազգուշացումներից ավելի քան երկու տարի առաջ՝ 2021 թվականի փետրվարին, Բահայի միջազգային համայնքի (ԲՄՀ) ներկայացուցիչ Սորայա Բաղերին ՄԱԿ-ի Սոցիալական զարգացման հանձնաժողովի 59-րդ նիստում զգուշացրեց այն հնարավոր վտանգի մասին, որը, չնայած AI-ի մեծ ներուժը, դրա չնախատեսված հետևանքները կարող են սրել գլոբալ անարդարությունը։

 

Նոր տեխնոլոգիաները, ինչպիսիք են արհեստական ինտելեկտը, մեծ ներուժ ունեն՝ առաջնորդելու մարդկային ոգին մարդկության ամենահրատապ խնդիրները լուծելու համար: Այսօրվա մեր առջև ծառացած խնդիրներից մեկն այն է, որ տեխնոլոգիական առաջընթացի արագությունը գերազանցում է մտածելու կարողությունը:

 

Հետաքրքրությունից դրդված՝ 2023 թվականի հունիսի կեսերին ես ChatGPT-ին տվեցի այս հարցը. «Կարո՞ղ է արհեստական ինտելեկտը լուծել էթիկական և բարոյական խնդիրները»: 20 վայրկյանի ընթացքում ես ստացա հետևյալ պատասխանը.

 

Արհեստական ինտելեկտի (AI) կարողությունը լուծելու էթիկական և բարոյական խնդիրները բարդ և հակասական թեմա է:

 

AI-ները նախատեսված են ալգորիթմների և տվյալների մշակման վրա հիմնված հատուկ առաջադրանքներ կատարելու համար: Նրանք չունեն իրենց սեփական բարոյական արժեքները, զգացմունքները կամ գերակշռող էթիկական զգայունությունը:

 

Էթիկան և բարոյականությունը բարդ մարդկային հասկացություններ են, որոնք հիմնված են մշակութային նորմերի, արժեքների և սոցիալական համոզմունքների վրա: Էթիկական և բարոյական խնդիրների լուծումը հաճախ պահանջում է տարբեր արժեքների հավասարակշռում, համատեքստային ըմբռնում և բարոյական արտացոլում: Սրանք կարողություններ են, որոնք սովորաբար կապված են մարդկային գիտակցության և բարոյական դատողության հետ:

 

Այնուամենայնիվ, արհեստական ինտելեկտի տեխնոլոգիայի որոշ ասպեկտներ կարող են օգնել էթիկական որոշումներ կայացնելիս: Օրինակ, AI համակարգերը կարող են վերլուծել մեծ քանակությամբ տվյալներ և տրամադրել տեղեկատվություն, որը կարող է օգնել գնահատել էթիկական հետևանքները: AI համակարգերի օգտագործման էթիկական ուղեցույցների և սկզբունքների մշակումը նույնպես կարևոր քայլ է հնարավոր բացասական ազդեցությունները նվազագույնի հասցնելու և սոցիալական պատասխանատվություն ապահովելու համար:

 

Այնուամենայնիվ, էթիկական և բարոյական խնդիրների լուծումը հաճախ հիմնված է համամարդկային արժեքների, բարոյական արտացոլման և իրավիճակի ամբողջական դիտարկման վրա։ Կարևոր է գիտակցել, որ AI համակարգերը որոշումներ են կայացնում՝ հիմնվելով ալգորիթմների և տվյալների վրա, որոնք կարող են լինել սխալ կամ կողմնակալ: Էթիկական խնդիրների բացառապես ալգորիթմական լուծումների վրա հիմնվելը կարող է խնդրահարույց լինել:

 

Ի վերջո, էթիկական և բարոյական խնդիրների լուծման պատասխանատվությունը կրում են այն մարդիկ, ովքեր զարգացնում, ներդնում և օգտագործում են AI: Սա պահանջում է հետևանքների, էթիկական մտորումների և հանրային դիսկուրսի համապարփակ քննություն՝ համոզվելու համար, որ AI-ն գործում է մեր ընդհանուր արժեքներին և բարոյական սկզբունքներին համապատասխան»:

 

Այս պատասխանը հնչում է ինքնաքննադատական և խնդիրների գիտակցումով: Այնուամենայնիվ, սա գոհացուցիչ չի բացատրում, թե ինչու ես ստացա նույն հարցի պատասխանը մոտ մեկ ամիս առաջ (մայիսի կեսերը), որը մոտ երկու անգամ ավելի երկար էր, այս վերջնական հիմնական հայտարարությամբ.

 

Հետևաբար, կարևոր է ստեղծել ամուր էթիկական հիմք AI համակարգեր նախագծելիս և այդ համակարգերը նախագծել էթիկային համապատասխան: Բացի այդ, կարևոր է, որ արհեստական ինտելեկտի համակարգերը վերահսկվեն մարդկանց կողմից՝ ապահովելու, որ նրանք էթիկապես ճիշտ որոշումներ կայացնեն»:

 

Այս պատասխանը բավականին վստահ էր թվում, եթե ոչ միամիտ ու պատրանքային։

 

Ինչպե՞ս կարող է լինել, որ մեկ ամսվա ընթացքում նույն հարցի պատասխանն այդքան տարբեր է: Սա պատահականությու՞ն է։ Երբ հարցնում են այդ մասին, ChatGPT-ն պատասխանում է.

 

OpenAI-ը կարող է թարմացումներ և բարելավումներ կատարել ChatGPT մոդելներում վերապատրաստման շրջանից հետո: Այս թարմացումները կարող են հանգեցնել պատասխանների ստեղծման աննշան փոփոխությունների, օրինակ՝ շտկելով նախկին սխալները կամ թույլ կողմերը:

 

Արդյո՞ք տարբերակների միջև տարբերությունը արագ վերահսկվող արձագանք էր OpenAI-ի երկու նամակներին հաջորդած ինտենսիվ և հակասական լրատվամիջոցների քննարկմանը: Արդյո՞ք տառերն իրենք հիմնականում օգտագործվում էին որպես գովազդային «ինքնաիրագործում»: Ուրեմն որտե՞ղ է վերևում պահանջվում «էթիկական մտորումը և հանրային դիսկուրսը»:

 

Բացի այդ, ո՞վ է իրականում սահմանում այդ «էթիկական ուղեցույցները» և «ընդհանուր արժեքները» և վերահսկում դրանց իրականացումը։ Առայժմ, համենայն դեպս, տեխնոլոգիական կորպորացիաները ակնկալում են հսկայական շահույթներ և, հետևաբար, զարգացնում են իրենց AI համակարգերը փակ դռների հետևում:

 

Արհեստական ինտելեկտի զարգացումը բացահայտեց էական հակասություն մի կողմից էթիկական և բարոյական չափանիշների, մյուս կողմից՝ գիտական և տեխնոլոգիական առաջընթացի և իշխանության համար տնտեսական պայքարի միջև: Վերցրեք, օրինակ, կլիմայի հարցը. թեև նավթային ընկերությունները 1970-ականներին սեփական գիտական հետազոտությունների միջոցով ճանաչեցին մոտալուտ կլիմայական աղետը, բայց նաև փակ դռների հետևում, նրանք գաղտնի պահեցին այդ գիտելիքները: Նրանք տասնամյակներ շարունակ ժխտում էին կլիմայի փոփոխությունը և խոչընդոտում էին մեղմացման միջոցառումները՝ հօգուտ հսկայական շահույթների:

 

Ամբողջ մարդկային ռասան այժմ բախվում է նմանատիպ մարտահրավերի՝ արհեստական ինտելեկտի զարգացման հետ կապված: Բահայիները կարծում են, որ գիտությունն ու կրոնը պետք է ներդաշնակ լինեն: Համաձայն Արդարության Համաշխարհային Տան՝ Բահայիների դեմոկրատական ճանապարհով ընտրված համաշխարհային վարչական մարմինը, որն իր հրապարակային հայտարարության մեջ գրել է «Մեկ ընդհանուր հավատ», կրոնը և գիտությունը սերտորեն կապված են, բայց սկզբունքորեն տարբեր.

 

Մարդը տարբերակում և ձևակերպում է աստվածային հայտնության միջոցով աստիճանաբար բացահայտված արժեքները. Մյուսն այն գործիքն է, որով մարդկային միտքը ուսումնասիրում է և կարող է իր ազդեցությունը գործադրել ֆենոմենալ աշխարհի վրա և ավելի ճշգրիտ ազդեցություն գործադրել:

 

Այստեղ «մարդկային միտքը» կարելի է հասկանալ որպես հոգու արտացոլում մարդու մարմնում։ Եթե գիտակցությունը դիտարկենք որպես այս արտացոլման մաս, ապա մենք չենք կարող անկախ գիտակցության ունակությունը վերագրել AI-ին:

 

Հետևաբար, կրոնը, որպես մարդկության պատմության ընթացքում էթիկայի և բարոյականության հիմնական հիմք, անփոխարինելի է որպես գիտական և տեխնոլոգիական առաջընթացի հակակշիռ: Երկուսի միջև անհրաժեշտ հավասարակշռության գաղափարը բահայի ուսմունքների կենտրոնական դրույթներից մեկն է: Աբդուլ-Բահան 1911 թվականին Փարիզում իր ելույթում մարդկությանը համեմատեց երկու թև ունեցող թռչունի հետ.

 

Կրոնը և գիտությունը այն երկու թևերն են, որոնց վրա մարդկային միտքը կարող է ճախրել այն բարձունքներին, որոնցով կարող է զարգանալ մարդկային հոգին: Մի թևով հնարավոր չէ թռչել։ Եթե մարդը փորձի թռչել միայն կրոնի թևով, նա արագ կհայտնվի սնահավատության ճահճում, մինչդեռ, մյուս կողմից, միայն գիտության թևով նա ոչ մի առաջընթաց չի ունենա, այլ կընկնի անհույս նյութապաշտության ճահիճը։

 

Նյութապաշտությունն այստեղ նկարագրում է զուտ սեփական շահը, միակողմանի շահույթը կամ շահը իշխանությունից և, որպես հետևանք, անարդարությունը: Դեպի նյութապաշտություն սահելու վտանգը բխում է ոչ թե բուն գիտական հայտնագործությունից, այլ դրա տեխնոլոգիական և տնտեսական իրականացումից։ Օրինակ, միջուկային էներգիայի հայտնաբերումն ի սկզբանե մարդկային գիտելիքների արժեքային չեզոք արդյունք էր: Խնդիր դարձավ միայն նրա վերածվելը ավերիչ ռումբի։

 

Համապատասխանաբար, AI-ը չպետք է շարունակի զարգանալ գաղտնի: Որպեսզի ապագան ապրի ողջ մարդկության համար, մենք պետք է ապահովենք, որ կանխորոշված բարոյական և հոգևոր արժեքները ծառայեն որպես պարտադիր կողմնացույց AI-ի զարգացման, ինքնաուսուցման և կիրառման բոլոր փուլերում: Այս արժեքները պետք է ուղղված լինեն արդարության, խաղաղության և ողջ մարդկության բարօրության վրա։
 

author
Նյութի հեղինակ
Բահայի Հայաստան թիմ