Njerëzit, të cilët shpesh kënaqen me fantazinë e përballjes me inteligjenca që veprojnë kundër interesave tona, e gjejnë veten në një pikë kthese ku përballemi me sfidën e përdorimit të inteligjencës artificiale (IA) në mënyrë etike. Ky përparim teknologjik premton një rritje të paparë, por sjell gjithashtu sfida dhe vështirësi që meritojnë reflektim dhe veprim të mëvonshëm.

Ndryshimi i shpejtë gjeneron një sërë problemesh sociale që duket se nuk janë në gjendje të mbajnë ritmin. Çfarë vendos kufijtë në këtë epokë transformimi? Kjo është pikërisht përgjigjja që do të përshkruajmë në rreshtat e mëposhtëm, duke filluar duke theksuar se është e nevojshme të vendosen kufij moralë – dhe ndoshta edhe ligjorë – kur përdoret inteligjenca artificiale; përndryshe, rrezikojmë që zhvillimi i qytetërimit të bëhet krejtësisht i kundërt. Debati rreth inteligjencës artificiale dhe përdorimit të saj është i gjerë dhe kompleks. Megjithatë, ekziston njëfarë marrëveshjeje mbi disa norma morale në këtë drejtim. Le t’i shqyrtojmë ato.
1.Inteligjenca artificiale në shërbim të interesave njerëzore
Sipas Akademisë Mbretërore të Shkencave Morale dhe Politike, në një punim të shkruar nga një perspektivë humaniste, u deklarua se inteligjenca artificiale ka për qëllim minimizimin e vuajtjeve të shmangshme njerëzore. Këtu hyn në lojë koncepti i “përdorimit keqdashës të inteligjencës artificiale”, duke iu referuar rreziqeve të mundshme që keqpërdorimi i këtyre programeve i paraqet shoqërisë. Prandaj, siguria e individëve, si dhe privatësia, identiteti dhe konfidencialiteti i mjedisit të tyre, duhet të garantohen. Mosveprimi në këtë drejtim do të shkelte dispozitat e këtij seksioni.
2.Shmangni diktaturën e të dhënave
Mbledhja e sasive masive të të dhënave (ose të dhënave të mëdha) është forca lëvizëse pas progresit në fusha aq të larmishme sa teknologjia mjekësore dhe zhvillimi ekonomik. Megjithatë, kur këto të dhëna përdoren për të paragjykuar dhe ndarë popullsinë, kjo quhet “diktaturë e të dhënave”, sipas buletinit të Këshillit Kombëtar Spanjoll të Kërkimit (CSIC). Duke vazhduar me shembullin, një inteligjencë artificiale mund të mbledhë mostra të mëdha rezultatesh nga një trajtim i ri mjekësor ose të dhëna mbi incidencën e problemeve shëndetësore. Në këtë skenar, do të na duhej të pyesnim veten se deri në çfarë mase është etike që një kompani sigurimi të ketë qasje në këto të dhëna për të na ofruar një kuotë ose mbulim. IA është tashmë e zbatueshme në fusha të ndryshme, prandaj nevojiten urgjentisht më shumë rregullore dhe legjislacion për këtë çështje.
3.Respektoni të drejtat neurologjike
Të dhënat e mëdha mund të përdoren gjithashtu për të bërë parashikime rreth sjelljes njerëzore. Kjo shfrytëzohet veçanërisht në fushën e marketingut. Në këtë kuptim, për të përdorur inteligjencën artificiale në mënyrë etike, të dhëna të tilla nuk duhet të jenë një mjet që ndikon në identitetin e përdoruesve ose lirinë e tyre njohëse. Kjo njihet si të drejta neurologjike. Në fushën e inteligjencës artificiale, është thelbësore të sigurohet që të drejtat neurologjike respektohen në mbledhjen, ruajtjen, analizën dhe përdorimin e të dhënave të trurit. Kjo përfshin marrjen e pëlqimit të informuar dhe të qartë nga individët para mbledhjes së të dhënave të trurit të tyre, mbrojtjen e privatësisë dhe konfidencialitetit të këtyre të dhënave dhe sigurimin që ato përdoren në mënyrë etike dhe të përgjegjshme. Për më tepër, respektimi i të drejtave neurologjike duhet të sigurojë që inteligjenca artificiale të mos përdoret për të manipuluar ose ndikuar padrejtësisht në identitetin, lirinë njohëse ose autonominë e njerëzve. Prandaj, përfshin parandalimin e diskriminimit, stigmatizimit ose manipulimit bazuar në të dhënat e trurit, dhe sigurimin që vendimet dhe veprimet e nxitura nga inteligjenca artificiale të jenë transparente, të shpjegueshme dhe të drejta. Kjo është një sfidë e rëndësishme, pasi shumica e modeleve të përdorura nga inteligjenca artificiale janë të errëta: ato prodhojnë rezultate të mira, por ne nuk e dimë pse.
4.Ruajtja e dinjitetit njerëzor: një mënyrë tjetër etike për të përdorur inteligjencën artificiale
Disa vende pune, veçanërisht ato që përfshijnë kujdesin, konsiderohen të papërshtatshme për inteligjencën artificiale dhe robotët. Kjo sepse ato kërkojnë empati dhe respekt. Për shembull, do të ishte joetike t’i nënshtrohej një personi terapisë së drejtuar nga inteligjenca artificiale, ose të përdorej inteligjenca artificiale si oficer policie ose gjyqtar. Empatia te robotët paraqet sfida shumë interesante, për shkak të natyrës së emocioneve dhe vetëdijes njerëzore. Edhe pse robotët mund të programohen për të njohur dhe për t’iu përgjigjur shprehjeve të fytyrës, tonit të zërit dhe sinjaleve të tjera emocionale nga njerëzit, ata ende nuk kanë aftësinë për të përjetuar dhe kuptuar emocionet në të njëjtën mënyrë si ne. Kjo fushë trajtohet në një punim të botuar në revistën Ekonomia dhe Shoqëria, i cili shpjegon se teknologjive inteligjente po u jepen funksione të natyrshme për menaxhimin e emocioneve, ashtu siç bëjnë njerëzit, duke rënë në një kontradiktë midis detyrës morale dhe skenarit në të cilin ajo zbatohet.

5.Mbajeni kodin burimor me burim të hapur
Brenda debatit rreth inteligjencës artificiale, një pohim bie në sy: kodi i saj duhet të jetë i hapur dhe publik. Zhvillimi i saj nuk duhet të jetë në duart e një pakice të zgjedhurish, duke qenë se është një teknologji që ndikon drejtpërdrejt në jetën e njerëzve dhe strukturat e tyre shoqërore, madje edhe në kulturën e tyre. Kjo do të garantonte transparencën dhe do të parandalonte përdorimin keqdashës të inteligjencës artificiale.
Pse ta përdorim inteligjencën artificiale në mënyrë etike?
Nga siguria kombëtare te përdorimi i aplikacioneve, dhe nga politika te mjekësia, përdorimi i inteligjencës artificiale kërkon shqyrtim etik, të ndarë nga interesat e fshehta. Përdorimi keqdashës i inteligjencës artificiale jo vetëm që do të krijonte ose përkeqësonte kërcënimet për shoqërinë, por gjithashtu do të thellonte pasojat e saj negative. Meqenëse inteligjenca artificiale po e ndryshon botën dhe kulturën tonë, ne, si agjentë pasivë, duhet të zhvillojmë njëkohësisht një kulturë përgjegjësie dhe praktikash të mira në lidhje me përdorimin e saj . Kjo, ndryshe nga ajo që besojnë shumë, përfshin më shumë sesa thjesht të mësuarit dhe zbatimin e masave të sigurisë kibernetike. Në fakt, promovimi i një kulture kaq të përgjegjshme është vetëm hapi i parë. Është më se e nevojshme të kërkohet që qeveritë dhe kompanitë të marrin masa për menaxhimin etik të IA-së, pasi reflektimi moral ka filluar tashmë. Dhe është bërë njëfarë progresi në këtë drejtim, sipas një botimi nga Derecho Global.
Efektiviteti i përfundimeve të nxjerra nga ky reflektim do të varet nëse ato përmbushin objektivin e tyre humanist, sepse, për momentin, ata që na dominojnë vërtet janë njerëzit pas robotëve. Me fjalë të tjera, për momentin, pas çdo inteligjence artificiale qëndron një inteligjencë njerëzore.
© Nuk lejohet riprodhimi i shkrimeve pa vendosur autorësinë e revistës "Psikologjia" dhe pa cituar burimin.

