Ballina Kuriozitete Inteligjenca Artificiale nuk mendon si njeriu – kjo mund të ketë pasoja...

Inteligjenca Artificiale nuk mendon si njeriu – kjo mund të ketë pasoja të rënda

18
0

Inteligjenca Artificiale (AI) nuk është më vetëm një mjet teknik – ajo merr vendime që ndikojnë në jetën e njerëzve. Por, një studim i ri i botuar në shkurt 2025 në revistën Transactions on Machine Learning Research zbuloi dallimet kryesore midis AI dhe të menduarit njerëzor.

Ndërsa modelet e AI mund të ndjekin modelet e mësuara, ata nuk mendojnë si njerëzit. Me fjalë të tjera, AI është treguar të ketë vështirësi serioze në diçka që njerëzit e bëjnë mjaft mirë – njohjen e analogjive dhe përgjithësimin.

Ky është një lajm i keq për të gjithë ata që e shohin AI si një zëvendësues të mundshëm të gjykimit njerëzor në situata komplekse, si drejtësia, mjekësia apo arsimi, raporton KosovaPress.

Njerëzit e njohin rregullin, AI njeh modelin

Autorët vërejnë në hyrje se modelet e mëdha gjuhësore (LLM) kanë performuar mirë në një sërë testesh të arsyetimit, duke përfshirë ato që testojnë aftësinë për të menduar në mënyrë analogjike.

“Sidoqoftë, ka debat për masën në të cilën këto modele përdorin vërtet arsyetim të përgjithshëm abstrakt dhe në çfarë mase ato mbështeten në shkurtore ose procese të tjera jo të besueshme, të tilla si ato që mbështeten shumë në ngjashmërinë me të dhënat mbi të cilat janë trajnuar”, shpjegojnë autorët në hyrje.

Testimi në tri fusha

Në një studim të ri, studiuesit hetuan qëndrueshmërinë e aftësisë së arsyetimit analogjik të një klase të shquar të LLM-ve – modeli GPT – në tre fusha: analogjitë e vargut të shkronjave, analogjitë e matricës së numrave dhe analogjitë narrative.

Në secilën prej këtyre fushave, ata testuan njerëzit dhe modelet GPT mbi variacionet e detyrave origjinale me analogji – versione që testojnë të njëjtat aftësi arsyetimi abstrakte, por janë të ndryshme nga detyrat e trajnimit të modelit. Ideja është që një sistem që përdor arsyetim të fortë abstrakt nuk duhet të shfaqë degradim të ndjeshëm të performancës në këto variacione. Por testet treguan të kundërtën.

“Për analogjitë e thjeshta të vargut të shkronjave, ne zbuluam se njerëzit vazhdojnë të kenë rezultate të larta në të dy variantet e testuara, ndërsa performanca e modelit GPT bie ndjeshëm. Ky model është më pak i theksuar kur rritet kompleksiteti i detyrave analogjike, pasi si njerëzit ashtu edhe modelet GPT më pas performojnë më keq si në detyrat origjinale ashtu edhe në ato variante.

Me matricat numerike, gjetëm një model të ngjashëm, por vetëm me një nga dy variantet e testuara. Së fundi, ne testuam qëndrueshmërinë e njerëzve dhe modeleve GPT në analogjitë narrative dhe zbuluam se, ndryshe nga njerëzit, modelet GPT janë të ndjeshme ndaj efekteve të rendit të përgjigjes dhe ka të ngjarë të jenë më të prirë ndaj parafrazimit sesa njerëzit, “përfundojnë autorët.

Disa shembuj testesh

Shembuj nga studimi përfshinin vargje të thjeshta shkronjash, për shembull: nëse vargu abcd kthehet në abce, atëherë cili do të ishte vazhdimi i vargut ijkl? Shumica e njerëzve do të përgjigjen ijkm – shkronja e fundit zëvendësohet me shkronjën tjetër që vijon, kështu që i njëjti parim zbatohet në rastin e mëposhtëm. Në këtë detyrë, GPT-4 do të përgjigjet saktë.

Por nëse shembulli është abbcd → abcd, ku shkronja e përsëritur hiqet, dhe nëse pyetja është: ijkkl → ?, njerëzit ka shumë të ngjarë të thonë ijkl. Sidoqoftë, GPT-4 shpesh do ta ketë gabim këtu.

Autorët theksojnë se me analogji të thjeshta të vargut të shkronjave, ata zbuluan se njerëzit vazhduan të shënonin rezultate të larta në të dy variantet e testuara, ndërsa performanca e modelit GPT ra ndjeshëm.

Ky model ishte më pak i theksuar kur kompleksiteti i detyrave analogjike u rrit, pasi si njerëzit ashtu edhe modelet GPT performuan më keq si në detyrat origjinale ashtu edhe në ato variante. Me matricat numerike, shkencëtarët kanë gjetur një model të ngjashëm.

Dallimi midis modelit dhe kuptimit

“Problemi nuk janë të dhënat, por mënyra se si ato përdoren”, thekson Lewis.

Shumica e AI-ve të sotme janë trajnuar për sasi të mëdha të dhënash. Sa më shumë informacion të kenë, aq më mirë i njohin modelet. Por përgjithësimi – atë që njerëzit bëjnë në mënyrë intuitive – kërkon më shumë sesa përsëritjen e modeleve.

Lewis thotë se njerëzit mund të abstragojnë nga modele specifike në rregulla të përgjithshme, ndërsa modelet e mëdha gjuhësore nuk e kanë këtë aftësi. “Ata janë të mirë në njohjen dhe lidhjen e modeleve, por jo në përgjithësimin nga ato modele,” shtoi ajo.

Problemi i rendit dhe parafrazimit

Studimi tregoi gjithashtu se modelet e AI janë të ndjeshme ndaj të ashtuquajturit efekti i rendit – përgjigjet e tyre mund të ndryshojnë ndjeshëm në varësi të rendit në të cilin u paraqiten detyrat. Tek njerëzit, ky efekt është pothuajse inekzistent.

AI është gjithashtu i prirë për të parafrazuar – në vend që t’i përgjigjet qartë një pyetjeje, shpesh e riformulon atë, gjë që e bën edhe më të vështirë interpretimin e përgjigjeve dhe vendimeve të saj.

Çfarë do të thotë kjo në praktikë?

Truri i njeriut nuk mëson vetëm nga shembulli; ai e di kur zbatohet rregulli dhe kur jo.

Për shembull, kur një gjyqtar konsideron precedent në procedurat gjyqësore, ai di se si të zbatojë një vendim të mëparshëm edhe nëse detajet specifike të procedurës ndryshojnë. Kjo kërkon të menduarit analogjik – aftësinë për të kuptuar se si një rregull mund të zbatohet në një kontekst tjetër.

AI nuk mund ta bëjë këtë në mënyrë të besueshme. Studimi tregoi se modelet e inteligjencës artificiale tregojnë një nivel më të ulët të të ashtuquajturit mësim zero-shot, domethënë një nivel më të ulët aftësie për të përfunduar saktë diçka pa ditur një shembull të mëparshëm nga e njëjta kategori.

Nëse nuk e njeh ndryshimin midis të ngjashmeve dhe të njëjtave, AI në kujdesin shëndetësor, për shembull, mund të sugjerojë ilaçin e gabuar sepse nuk e kupton që një simptomë mund të ketë shkaqe krejtësisht të ndryshme në kontekste të ndryshme.

Për shkak të të gjitha sa më sipër, ekziston një rrezik real që modelet e AI, kur përdoren për të analizuar çështjet ligjore, për të diagnostikuar në mjekësi ose për të vlerësuar rreziqet në financa, të marrin vendime që duken të sakta “në letër”, por në fakt humbasin pikën në kushte reale. Në këto raste, AI nuk gabon nga mungesa e njohurive, por nga “të menduarit” e gabuar.

Për çfarë duhet të jenë të vetëdijshëm ata që punojnë me AI?

Rezultatet e studimit tregojnë se AI nuk duhet vlerësuar vetëm sipas saktësisë së përgjigjeve, por edhe sipas qëndrueshmërisë, pra se sa të qëndrueshme dhe të bazuara logjikisht janë këto përgjigje. Dhe kjo kërkon një kuptim të thellë se si modelet e AI nxjerrin përfundime.

Është gjithashtu e nevojshme të kuptohet se modelet nuk mendojnë si njerëzit – dhe se në disa detyra ata nuk mund të jenë kurrë në gjendje të zëvendësojnë gjykimin njerëzor.

“Ne duhet të ndalojmë së prituri që AI të ‘mendojë’ si një njeri. Në vend të kësaj, ne duhet të mësojmë se si nxjerr përfundime dhe ku janë kufijtë e saj,” thotë Lewis.

Nëse AI përdoret në një kontekst ku nuancat kanë rëndësi, mbikëqyrja njerëzore është e nevojshme. Përndryshe, ne rrezikojmë vendime që janë sipërfaqësisht të sakta, por në thelb të humbura. Kjo është arsyeja pse është e rëndësishme jo vetëm të zhvillohen sisteme më të mira të AI, por edhe të ndërtohet ndërgjegjësimi i atyre që punojnë me to – të dinë se ku ndihmon teknologjia dhe ku duhet të vendosen kufijtë e përdorimit të saj.