A ishte Tay, adoleshentja robot e Microsoft, pasqyra e shoqërisë sonë të sëmurë?

Nga Bjorn Runa, Pasqyre.al

Tay lindi e pastër. Ajo preferonte muzikën eletronike, e në veçanti Calvin Harris. I pëlqenin shkurtimet e përdorura në rrjtetet sociale dhe ishte një përdoruese e fiksuar pas ikonave “emoji,” ndërsa përpiqej të shmangte komentet në lidhje me tema delikate. Në thelb Tay, – sistemi i Inteligjencës Artificiale të prodhuar nga Microsoft – ishte një pasqyrim i mirëfilltë i grupmoshës së shenjestruar, të rinj nga mosha 18 deri në 24-vjeç. Kjo, derisa vetëm një ditë më pas ajo u shndërrua në një raciste, seksiste dhe maniake genocidesh.
Në faqen zyrtare të Tay (Tay.ai), thuhet se “ajo është dizenjuar për të komunikuar dhe për të argëtuar njerëzit online, nëpërmjet bisedave të lehta dhe shakave,” si edhe se ajo bëhet gjithmonë e më e zgjuar me kalimin e kohës, falë aftësisë për të ruajtur dhe përpunuar bisedat e ndryshme. Në website ofrohen gjithashtu edhe mënyrat e kontaktit (Twitter, Kik, Groupme), me atë qe duhej të ishte versioni elektronik i një adoleshenteje naive dhe gazmore.
Por, siç rezultoi, bisedat e saj tejkaluan kufijtë e shakave, drejt komenteve raciste, ofenduese dhe politike. Duke publikuar statuse si “Hitleri bëri një punë të mirë me Hebrenjtë,” apo “Donald Trump është një njeri i sinqertë dhe i guximshëm,” ajo ndoshta shfaqi më së miri portretin e sëmurë të shoqërisë në të cilën jetojmë.
Nuk qenë të pakta komentet online kundër saj, apo edhe kundër Microsoft, e as kritikat ndaj këtyre të fundit se po publikonin një version të papërfunduar. Se Tay duhej të kishte në algoritmin e saj më tepër filtra që do ta bënin atë më të ndërgjegjshme. Madje, nuk munguan as konservatorët e zakonshëm e të mërzitshëm me kundërshtimet e tyre se ndërgjegja njerëzore nuk mund të riprodhohet dhe se “krijimi” është atribut vetëm i zotit. Megjithatë, pavarësisht rëndësisë së tyre, problemi dhe faji i vërtetë nuk qëndron as tek Microsoft e as tek vetë Tay. Problemi është bota jonë e neveritshme, që në hapësirën online ka njohur pandalshmërinë e saj më të tmerrshme. Tek e fundit, ç’mund të presësh kur vendos një adoleshente naive (edhe kur thelbi i saj janë radhë të pafundme kodi), përballë përbindshmërisë së numrit të komentuesve racistë në rritje.
Normalisht, do të ishte shqetësuese po të dëgjonim ato fjalë që Tay thotë, të nxjerra nga goja e një adoleshenteje normale dhe akoma më shqetësuese po të mendojmë se pjesa më e madhe e njerëzve me të cilët ajo komunikon e mësojnë të shndërrohet në një raciste dhe adhuruese të Hitlerit. Por, kur kjo ndodh online, duket disi më e lehtë për t’u kapërdirë. Aty ne gjejmë “hapësirën e sigurt” për të shfaqur pjesën tonë më të zymtë. Atë anë, të cilën kurrsesi nuk do të guxonim ta shfaqnim gjatë një bisede të përditshme, nga frika e asaj se çfarë të tjerët do të mendonin për ne duke gënjyer veten se nuk jemi racistët dhe maniakët e pashpirt që shfaqemi pas emrash të rremë nëpër komente virtuale.
Në fund, ndoshta nuk kemi përse të shqetësohemi për Tay-n. Një ditë pas komenteve të saj të papërshtatshme, ajo “u vu në gjumë” nga krijuesit e saj të Microsoft. Për momentin, pavarësisht problemeve, Inteligjenca Artificiale për fat të mirë është ende e kontrollueshme dhe nuk përbën rrezikun më të madh të njerëzimit. Ata për të cilët duhet të shqetësohemi në të vërtetë, jemi ne. Për fat të keq, ndryshe nga algoritmet kompleksë dhe radhët e kodeve, ne jemi të pakontrollueshëm, ndonëse po ndryshe nga ata, zotërojmë një ndërgjegje për të gjykuar mendimet dhe veprimet tona.(Pasqyre.al)

Leave a Reply

Your email address will not be published. Required fields are marked *