top of page
ԼՐԱՀՈՍ
Search

AI-ի ազդեցությունը ռիսկերի և տվյալների կարգավորման վրա


Յակուբ Լևանդովսկին՝ Commvault-ի տվյալների գլոբալ կառավարման պատասխանատուն, քննարկում է AI-ի և մեծ լեզուների մոդելների ազդեցությունը մեր գոյություն ունեցող շրջանակների վրա:

Անցնող տարում AI-ի հնարավորությունների և ազդեցության, մասնավորապես, մեծ լեզվական մոդելների (LLM) ֆենոմենալ էվոլյուցիա է եղել, ինչպիսին է ChatGPT-ն: ChatGPT-ն գործարկվել է հենց անցյալ նոյեմբերին և առաջացրել է անթիվ մտահոգիչ հոդվածներ, էլ չենք խոսում հմուտ սպիտակ օձիքով աշխատատեղեր ստանձնելու իր ունակության մասին մտահոգությունների մասին:


Դուք նույնիսկ կարող եք մտածել, թե արդյոք նման հոդվածը գրվել է մարդու կամ AI-ի կողմից, և դուք ճիշտ կլինեք դա անել (բայց ես կարող եմ հաստատել, որ մարդն է գրել սա):


LLM-ները արհեստական ինտելեկտի ալգորիթմներ են, որոնք օգտագործում են խորը ուսուցման տեխնիկա և հիմնվում են տվյալների հսկայական հավաքածուների վրա՝ հուշումները հասկանալու և համապատասխան բովանդակություն ստեղծելու համար: Ոմանց համար սա պարզապես «ստերոիդների վրա ավտոմատ կանխատեսում է». Մյուսների համար արդյունքներն իսկապես շունչ կտրող են՝ պոտենցիալ փոխակերպելով այն, թե ինչպես ենք մենք աշխատում և ստեղծում: Այնուամենայնիվ, երբ խոսքը վերաբերում է ռիսկին և կարգավորմանը, ի՞նչ հետևանքներ կան:


AI-ի ազդեցությունը ռիսկի վրա

Ուշադրության ամենահրատապ ոլորտը վերաբերում է հենց LLM-ին սնվող տվյալներին: Այս մոդելները կարող են հավաքել, պահպանել և վերլուծել տվյալներ, ներառյալ անձնական և գաղտնի տեղեկատվությունը, աննախադեպ մասշտաբով և ուշագրավ մանրամասնությամբ: Ո՞վ է պատասխանատու արհեստական ինտելեկտի գեներատիվ արտադրանքի պատրաստման համար օգտագործվող տվյալների իսկությունն ապահովելու համար:


Ինչպե՞ս կարող ենք ապահովել, որ արհեստական ինտելեկտի մոդելները բացառապես վերապատրաստվեն տվյալների վրա, որոնք համապատասխանում են որոշակի որակի չափանիշներին, կանխելով հնարավոր դատավարությունները կամ տույժերը, որոնք բխում են սեփականության կամ անձնական տվյալների օգտագործումից՝ առանց մշակման համար անհրաժեշտ իրավական հիմքերի: «Աղբը ներս, աղբը դուրս» ասացվածքը հատկապես ճիշտ է այս համատեքստում:


AI-ի ազդեցության վերաբերյալ երկրորդական նկատառումը վերաբերում է, թե իրականում ինչ է տեղի ունենում LLM-ի «սև արկղում»: Որպես մարդիկ, կարո՞ղ ենք մենք իսկապես հասկանալ գործողությունների բարդությունը: Կրկնվող նշանավորման, ներդրման, ուշադրության կշռման և տվյալների լրացման գործընթացը վճռորոշ դեր է խաղում կոնկրետ արդյունքների ստեղծման գործում:


Այնուամենայնիվ, ինչպե՞ս կարող ենք ակտիվորեն անդրադառնալ խնդրահարույց բովանդակության առաջացմանը, ինչպիսիք են արհեստական ինտելեկտի հալյուցինացիաները, դիտված կողմնակալությունները, խորը ֆեյքերի տարածումը կամ բացահայտ խտրականության դեպքերը: Արդյո՞ք մենք սահմանափակվում ենք միայն նման միջադեպերին արձագանքելով, թե՞ դրանք հետևողականորեն դասակարգելու և կանխելու միջոց կա: Կարո՞ղ են միայն LLM-ները կանխարգելիչ միջոց ծառայել այս խնդիրների դեմ, թե՞ մեզ անհրաժեշտ են լրացուցիչ միջոցներ:


Վերջապես, մենք պետք է նայենք, թե ինչ դերեր կկատարեն LLM-ները և հարցնենք, թե արդյոք առկա են սահմանափակումներ LLM-ների, AI-ի և ավտոմատացված որոշումների կայացման վերաբերյալ: Ինչպե՞ս են օգտագործվելու տվյալները: Ո՞վ է սահմանում նպատակը: Տվյալների հոսքերի առումով, ո՞ւմ կամ ինչի՞ն է հասանելի լինելու արհեստական ինտելեկտի կողմից ստեղծված արդյունքները: Արդյո՞ք մենք պետք է հավատանք, որ ընկերությունները, որոնք պնդում են, որ իրենց արտադրանքի մեջ ներկառուցված AI-ն կնվազեցնեն մեր հարձակման մակերեսը կամ ավելի արդյունավետ կպաշտպանեն կիբերանվտանգության սպառնալիքներից: Եվ ինչպե՞ս է ձեր ընկերությունը բավարարելու գաղտնիության հետ կապված պահանջները՝ օգտագործելով AI և LLM-ներ՝ տվյալների հասանելիության կամ ջնջման հարցում:


Գոյություն ունեցող կարգավորող միջավայրը

Տվյալների պաշտպանության բարդ լանդշաֆտ արդեն գոյություն ունի ողջ Եվրոպայում և նրա սահմաններից դուրս, ինչը ավելին է սպասվում LLM-ների աճից հետո:


Տվյալների պաշտպանության ընդհանուր կանոնակարգ (GDPR)


Այս տարվա սկզբին նշելով իր հինգերորդ տարեդարձը՝ GDPR-ն արդեն իրեն զգում է որպես կահույքի մաս, բայց դա չի նշանակում, որ այն հնացել է: Արագ զարգացող տեխնոլոգիական զարգացումները ցույց են տալիս, որ GDPR-ը կարող է դիմակայել նոր մարտահրավերներին, նույնիսկ եթե այն նախագծված չէ հատուկ մտքում ունենալով AI:


GDPR-ի հիմնական սկզբունքներից մեկը ֆիզիկական անձանց իրավունքն է՝ չենթարկվել իրավական հետևանքներով կամ նմանատիպ էական ազդեցություններով որոշումների՝ բացառապես ավտոմատացված մշակման վրա հիմնված: Սա կարևոր երաշխիք է, որը երաշխավորում է, որ թեև LLM-ները կարող են աջակցել որոշումներին, վերջնական որոշումը, որոշ բացառություններով, պետք է ներառի մարդկային դատողություն:


GDPR-ը նաև ներդրել է տվյալների պաշտպանության ազդեցության գնահատման արժեքավոր և ազդեցիկ մեխանիզմ: Այս գնահատումները կազմակերպություններից պահանջում են գնահատել LLM-ների օգտագործմամբ տուժած անձանց իրավունքների և ազատությունների համար բխող ռիսկերը: Բացի այդ, կազմակերպությունները կարող են ուղղորդում փնտրել վերահսկող մարմիններից, թեև ներկայումս քչերն են դա անում:


Արդյունքում, որոշ վերահսկիչ մարմիններ, ինչպիսիք են Ֆրանսիայի CNIL-ը, իրենց մոդելավորում են որպես կարգավորիչներ և հարկադիրներ՝ ակնկալվող AI օրենսդրության շրջանակներում: Միևնույն ժամանակ, ձեռնարկությունները ձեռնարկում են նմանատիպ դիրքավորում: Գաղտնիության ոլորտի մասնագետները, ովքեր կտրել են իրենց ատամները GDPR-ի վրա, այժմ, բնականաբար, լավ վիճակում են՝ լուծելու արհեստական ինտելեկտի ազդեցության հետևանքով առաջացած մարտահրավերները:


GDPR-ն արդեն ներառում է ներկառուցված մեխանիզմներ՝ դրա արդյունավետությունը գնահատելու համար, և դրա կատարողականի ակնկալվող վերանայումը կներառի հատուկ հաշվետվություն այս տարի: Գոյություն ունի նաև ChatGPT-ի նոր ստեղծված ԵՄ հատուկ աշխատանքային խումբ և ապագա արհեստական ինտելեկտի ակտի վերանայված նախագծեր, որոնց ճնշող մեծամասնությամբ կողմ քվեարկվեց ԵՄ խորհրդարանում այս տարվա հունիսին:

0 comments
bottom of page