Tudtad, hogy a dinoszauruszok olyan fejlettek voltak, hogy képesek voltak egyszerűbb rajzokat, kisebb műalkotásokat készíteni és azokat kövekbe vésni?
S bár a mesterséges intelligencia hajtotta ChatGPT olyannyira ragaszkodik ehhez az ostoba feltevéshez, hogy állítása szerint ezen kövek a mai napig fennmaradtak, ez tipikus iskola példája annak, hogy ne higgy el mindent, amit a neten olvasol.
Egy másik hasonló elven működő mesterséges intelligencia rendszer szerint a churros (spanyol fánk szerű édesség) tudósok szerint kiváló és újszerű alapanyag lehet egy házi műtőasztal (?) elkészítéséhez. Ráadásul - folytatja okoska - a jó íze miatt nyugtatja is a beteget!
No de mégis mi ez a jelenség? A gép kitalál dolgokat? Hazudozik, hogy megtévesszen minket? Nos ezt úgy hívják, hogy AI hallucináció.
Ez az, amikor a gép magabiztosan állít valamit, ami teljes mértékben hamis. Ez bizony közismert AI körökben.
Nézzünk csak a színfalak mögé, hogy (többek között) mi okozza ezt?
- Ellentmondásos tanító adatok.
Azt tudjuk, hogy ezek a természetes nyelv feldolgozó rendszerek (NLP), óriási tanító adattal vannak ellátva.
Csakhogy mi történik akkor, ha az adatok ellentmondást tartalmaznak? Az Internetről származnak, ott pedig sok a különböző vélemény, igaz?
Az egyik szerint igenis jártunk a Holdon, a másik szerint kitaláció az egész. Honnan tudná így a gép, hogy melyik az igaz?
Persze, hogy belekavarodik és akár zagyvaságot állít adott esetben.
- Nem biztos a dolgában.
Na ez már érdekesebb. Minden ilyen jellegű AI rendszernek van egy "következő szó" kikövetkeztető algoritmusa, aminek az a feladata, hogy a kérdésünket értelmezve, megmondja melyek lesznek a következő valószínű szavak. Így alakul ki a gép válasza. Valószínűségek alapján, ami persze folyamatosan változik, attól függően, hogy mi milyen visszajelzéseket adunk a gépnek (tetszett, nem tetszett).
Velem vagy még?
Akkor figyelj, mutatok egy példát rá:
Egy lelkes felhasználó megkérte a gépet, hogy írjon egy ütős kis marketing cikket a Tesla cégről. A gép el is kezdte írni a cikket, majd eljutott a cég árbevételéhez, amiről egyáltalán nem volt pontos adata, amit ide beilleszthetett volna.
Viszont a gép "következő szó" előrejelző rendszerében - ami valójában egy mátrix (táblázat) - szerepel, hogy a bevétel akár lehet:
- Hasonló Musk többi cégéhez, melynek esélye 0,04%.
- Akkora mint egy nagyságrendileg hasonló cég éves árbevétele, ennek esélye 0,5%.
- Egy eladott autó átlagértéke megszorozva a kb. eladások számával, ennek esélye 0,09% (ezeket korábban megtanult és kielemzett adatokból kalkulálja, majd folyamatosan javítja emberi visszajelzéstől függően)
No persze ennél több esélyes válasz is van, most azonban egyszerűsítünk az érthetőség kedvéért.
Mivel a legnagyobb esélye a B opciónak van (bár ez is csak fikció), ezt választja.
No persze itt még lehet egy utolsó "védelmi vonal", amit a programozó helyez el, mely szerint, ha túl kicsi a legjobb válasz valószínűség értéke, akkor nem ad választ a gép, hanem jön a standard válasz: "erről nincs elég információm, pontosítsd a kérést", vagy valami hasonló.
Igen ám, csak ha sokszor kérdezzük a gépet ugyanerről, akkor - mivel ez is bele van építve - nem fogja ugyanazt a választ adni, hanem mégis választ egyet a kis valószínűségű válaszok egyikéből, mondjuk azt amelyik a legkevésbé rossz.
Nekünk embereknek ez nem felelne meg, ám a gép logikusan választ, nincs öntudata a mesterséges intelligenciának, ezt tudjuk.
Így született meg az egész jó Teslás cikk, benne a teljesen kamu éves árbevétellel, amit nagyon is határozottan állított a gép.
- Saját válaszára építés
Az előző két hibaforrást tovább erősíti, hogy amikor a gépnek sikerül kreálnia egy hamis adatot tartalmazó választ, akkor utána azt "készpénznek" veszi és ráépít a jövőben a saját korábbi kétes válaszaira!
Ez persze további bonyodalmakat szül, lásd fura dinós példám a cikk elején: ha a dinók kőbe véstek rajzokat, tán beszélni is tudtak a gép szerint?
Na persze ezek összetett rendszerek, és arról még nem is beszéltünk, hogy a mesterséges intelligencia igyekszik megérteni, hogy miről beszélünk és figyeli a szövegkörnyezetet, szó összefüggéseket is, ahol szintúgy lehetnek bőven félreértések.
S még egy elgondolkodtató (összeesküvős) feltételezés: mi van akkor ha megkérdezzük a gépet, hogy mit lát a képen és olyasmit mond, ami szerintünk nincs is rajta?
Jelzem, hogy a gép olyan mintákat is lát, amit mi emberek nem veszünk észre. Tehát nagyon is lehetséges opció - bár nem minden esetben van ez - hogy talált a gép valamit, amiről mi nem tudunk, amit mi nem látunk.
S akkor a végére egy zárógondolat.
Nyilván én is beütöttem a saját nevem és megkérdeztem a ChatGPT-t, hogy szerinte ki vagyok én?
Tudni kell, hogy én elég aktív vagyok a közösségi platformokon, előadásokat is tartok sűrűn és több céges weboldalunk is van a nevemmel, önéletrajzommal.
Na ki is köpte a gép, hogy Szekrényi Péter egy 1955-ben született IT mérnök és matematikus. Sőt hosszan sorolta a diplomáim számát és hogy milyen érdemrendeket vettem át eddig.
Szerinte…
Hmm, bár valóban IT mérnök vagyok, a legkevésbé sem vagyok matematikus és bár jól érzem magam a bőrömben, nem vagyok 78 éves.
Szóval voltak elszórt igazság morzsák az írásban, ám összességében egy koholmány volt. Az okok kapcsán, lásd fenti 3. pontot.
A legtöbb AI ellenző, amikor azt kéri, hogy legyen szünet világszerte a mesterséges intelligencia fejlesztésben, vagy épp sürgetik az egységes szabályozást, esetleg aggodalmukat fejezik ki egyéb formában a mesterséges intelligencia miatt, akkor pont erre az AI hallucinációra utalnak, csak nem feltétlen nevezik nevén a dolgot.
Ugyanis ez a legnagyobb veszélye jelenleg az AI-nak. Olyan határozottan mond véleményt mindenről, hogy mi emberek hajlamosak vagyunk 100%-ban elhinni.
Ez most az igazi veszélye, a hamis információ terjesztés, nem a munkák elvétele, vagy a gépi öntudat.
Ezzel ugyanis befolyásolni lehet a tömegeket, hogy mit vásároljanak, vagy épp kire szavazzanak.
Mindig csekkold más forrásból is, amit a fejlődő mesterséges intelligencia mond!
Szekrényi Péter - Pedro
tulajdonos, IT mérnök
AMtech Rendszerház
www.amtech.hu