Amtech Rendszerház

Amtech Rendszerház

A mesterséges intelligencia hallucináció 3 fő oka

2023. április 21. - Lázár CSaba

 

harom_1.jpg

Tudtad, hogy a dinoszauruszok olyan fejlettek voltak, hogy képesek voltak egyszerűbb rajzokat, kisebb műalkotásokat készíteni és azokat kövekbe vésni?

S bár a mesterséges intelligencia hajtotta ChatGPT olyannyira ragaszkodik ehhez az ostoba feltevéshez, hogy állítása szerint ezen kövek a mai napig fennmaradtak, ez tipikus iskola példája annak, hogy ne higgy el mindent, amit a neten olvasol.

 

Egy másik hasonló elven működő mesterséges intelligencia rendszer szerint a churros (spanyol fánk szerű édesség) tudósok szerint kiváló és újszerű alapanyag lehet egy házi műtőasztal (?) elkészítéséhez. Ráadásul - folytatja okoska - a jó íze miatt nyugtatja is a beteget!

 No de mégis mi ez a jelenség? A gép kitalál dolgokat? Hazudozik, hogy megtévesszen minket? Nos ezt úgy hívják, hogy AI hallucináció.

 Ez az, amikor a gép magabiztosan állít valamit, ami teljes mértékben hamis. Ez bizony közismert AI körökben.

 Nézzünk csak a színfalak mögé, hogy (többek között) mi okozza ezt?

  1. Ellentmondásos tanító adatok.

Azt tudjuk, hogy ezek a természetes nyelv feldolgozó rendszerek (NLP), óriási tanító adattal vannak ellátva.
Csakhogy mi történik akkor, ha az adatok ellentmondást tartalmaznak? Az Internetről származnak, ott pedig sok a különböző vélemény, igaz?
Az egyik szerint igenis jártunk a Holdon, a másik szerint kitaláció az egész. Honnan tudná így a gép, hogy melyik az igaz?
Persze, hogy belekavarodik és akár zagyvaságot állít adott esetben.

  1. Nem biztos a dolgában.

Na ez már érdekesebb. Minden ilyen jellegű AI rendszernek van egy "következő szó" kikövetkeztető algoritmusa, aminek az a feladata, hogy a kérdésünket értelmezve, megmondja melyek lesznek a következő valószínű szavak. Így alakul ki a gép válasza. Valószínűségek alapján, ami persze folyamatosan változik, attól függően, hogy mi milyen visszajelzéseket adunk a gépnek (tetszett, nem tetszett).

Velem vagy még?

Akkor figyelj, mutatok egy példát rá:
Egy lelkes felhasználó megkérte a gépet, hogy írjon egy ütős kis marketing cikket a Tesla cégről. A gép el is kezdte írni a cikket, majd eljutott a cég árbevételéhez, amiről egyáltalán nem volt pontos adata, amit ide beilleszthetett volna.

Viszont a gép "következő szó" előrejelző rendszerében - ami valójában egy mátrix (táblázat) - szerepel, hogy a bevétel akár lehet:

  1. Hasonló Musk többi cégéhez, melynek esélye 0,04%.
  2. Akkora mint egy nagyságrendileg hasonló cég éves árbevétele, ennek esélye 0,5%.
  3. Egy eladott autó átlagértéke megszorozva a kb. eladások számával, ennek esélye 0,09% (ezeket korábban megtanult és kielemzett adatokból kalkulálja, majd folyamatosan javítja emberi visszajelzéstől függően)

 No persze ennél több esélyes válasz is van, most azonban egyszerűsítünk az érthetőség kedvéért.

Mivel a legnagyobb esélye a B opciónak van (bár ez is csak fikció), ezt választja.

No persze itt még lehet egy utolsó "védelmi vonal", amit a programozó helyez el, mely szerint, ha túl kicsi a legjobb válasz valószínűség értéke, akkor nem ad választ a gép, hanem jön a standard válasz: "erről nincs elég információm, pontosítsd a kérést", vagy valami hasonló.

Igen ám, csak ha sokszor kérdezzük a gépet ugyanerről, akkor - mivel ez is bele van építve - nem fogja ugyanazt a választ adni, hanem mégis választ egyet a kis valószínűségű válaszok egyikéből, mondjuk azt amelyik a legkevésbé rossz.

Nekünk embereknek ez nem felelne meg, ám a gép logikusan választ, nincs öntudata a mesterséges intelligenciának, ezt tudjuk.

Így született meg az egész jó Teslás cikk, benne a teljesen kamu éves árbevétellel, amit nagyon is határozottan állított a gép.

  1. Saját válaszára építés

 Az előző két hibaforrást tovább erősíti, hogy amikor a gépnek sikerül kreálnia egy hamis adatot tartalmazó választ, akkor utána azt "készpénznek" veszi és ráépít a jövőben a saját korábbi kétes válaszaira!

 Ez persze további bonyodalmakat szül, lásd fura dinós példám a cikk elején: ha a dinók kőbe véstek rajzokat, tán beszélni is tudtak a gép szerint?

 

Na persze ezek összetett rendszerek, és arról még nem is beszéltünk, hogy a mesterséges intelligencia igyekszik megérteni, hogy miről beszélünk és figyeli a szövegkörnyezetet, szó összefüggéseket is, ahol szintúgy lehetnek bőven félreértések.

 S még egy elgondolkodtató (összeesküvős) feltételezés: mi van akkor ha megkérdezzük a gépet, hogy mit lát a képen és olyasmit mond, ami szerintünk nincs is rajta?

 Jelzem, hogy a gép olyan mintákat is lát, amit mi emberek nem veszünk észre. Tehát nagyon is lehetséges opció - bár nem minden esetben van ez - hogy talált a gép valamit, amiről mi nem tudunk, amit mi nem látunk.

 S akkor a végére egy zárógondolat.

Nyilván én is beütöttem a saját nevem és megkérdeztem a ChatGPT-t, hogy szerinte ki vagyok én?

Tudni kell, hogy én elég aktív vagyok a közösségi platformokon, előadásokat is tartok sűrűn és több céges weboldalunk is van a nevemmel, önéletrajzommal.

Na ki is köpte a gép, hogy Szekrényi Péter egy 1955-ben született IT mérnök és matematikus. Sőt hosszan sorolta a diplomáim számát és hogy milyen érdemrendeket vettem át eddig.

Szerinte…

Hmm, bár valóban IT mérnök vagyok, a legkevésbé sem vagyok matematikus és bár jól érzem magam a bőrömben, nem vagyok 78 éves.

Szóval voltak elszórt igazság morzsák az írásban, ám összességében egy koholmány volt. Az okok kapcsán, lásd fenti 3. pontot.

 

A legtöbb AI ellenző, amikor azt kéri, hogy legyen szünet világszerte a mesterséges intelligencia fejlesztésben, vagy épp sürgetik az egységes szabályozást, esetleg aggodalmukat fejezik ki egyéb formában a mesterséges intelligencia miatt, akkor pont erre az AI hallucinációra utalnak, csak nem feltétlen nevezik nevén a dolgot.

 Ugyanis ez a legnagyobb veszélye jelenleg az AI-nak. Olyan határozottan mond véleményt mindenről, hogy mi emberek hajlamosak vagyunk 100%-ban elhinni.

 Ez most az igazi veszélye, a hamis információ terjesztés, nem a munkák elvétele, vagy a gépi öntudat.

Ezzel ugyanis befolyásolni lehet a tömegeket, hogy mit vásároljanak, vagy épp kire szavazzanak.

 Mindig csekkold más forrásból is, amit a fejlődő mesterséges intelligencia mond!

 

 

Szekrényi Péter - Pedro
tulajdonos, IT mérnök
AMtech Rendszerház
www.amtech.hu

A bejegyzés trackback címe:

https://amtech.blog.hu/api/trackback/id/tr7118107776

Kommentek:

A hozzászólások a vonatkozó jogszabályok  értelmében felhasználói tartalomnak minősülnek, értük a szolgáltatás technikai  üzemeltetője semmilyen felelősséget nem vállal, azokat nem ellenőrzi. Kifogás esetén forduljon a blog szerkesztőjéhez. Részletek a  Felhasználási feltételekben és az adatvédelmi tájékoztatóban.

Nincsenek hozzászólások.
süti beállítások módosítása