arról, mit titkol el a techipar.
AI-munkások, akik nap mint nap a chatbotok hibáit javítják, azt állítják: a technológia gyakran hazudik, elfogult, és veszélyes lehet. A háttérben dolgozók szerint a vállalatok a gyorsaságot előbbre tartják a biztonságnál, miközben a rendszerek hibái, torzításai és etikai kockázatai a nyilvánosság elől jórészt rejtve maradnak.
A mesterséges intelligencia rendszerek működését valójában nem gépek, hanem emberek ezrei tartják össze. Ők azok a háttérben dolgozó szabadúszók – legtöbbször otthonról –, akik nap mint nap átnézik a chatbotok válaszait, kijavítják a hibákat, jelzik a veszélyes vagy téves tartalmakat, és értékelik, mennyire „emberi” egy-egy szöveg vagy kép.
A The Guardian által megkérdezett dolgozók többsége azonban már saját maga sem használja a technológiát, amelynek a fejlesztésében részt vesz. Szerintük az AI egyre többet téved, egyre bátrabban mond ki hamis állításokat, és a fejlesztő cégek a minőség helyett a gyorsaságot helyezik előtérbe.
„Hazudik, elfogult és veszélyes” – vallják azok, akik naponta javítják
Az egyik otthonról dolgozó amerikai AI-tesztelő például azt a feladatot kapta, hogy különböző közösségi posztokról döntse el, rasszisták-e. Egy bejegyzésnél majdnem nemmel szavazott, mert nem ismerte az egyik kifejezést – csak utólag derült ki számára, hogy súlyos rasszista sértésről van szó. Azt mondja: ekkor döbbent rá, hány ilyen téves döntést hozhatott korábban ő vagy mások, aminek következtében káros, sértő tartalmak is átmentek a szűrőn.
Egy másik dolgozó, aki a Google-nek értékel válaszokat, arról számolt be: gyakran orvosi vagy egészségügyi kérdésekről kell döntést hoznia úgy, hogy semmiféle egészségügyi képzettsége nincs. Szerinte a kollégák is sokszor elfogadják az AI válaszait anélkül, hogy átgondolnák, igazak-e. Ezek után a saját 10 éves lányának meg is tiltotta, hogy használjon bármilyen chatbotot, mielőtt a kritikai gondolkodása kifejlődhetne: „Előbb meg kell tanulnia felismerni, ha valami hülyeséget mond a gép” – mondta.
Több válasz – több tévedés
A NewsGuard elemzése szerint a vezető AI-modellek – például ChatGPT vagy Gemini – 2024-ben még 31%-ban inkább nem válaszoltak a bizonytalan kérdésekre. 2025-re azonban ez lement 0%-ra: vagyis ma már szinte mindenre adnak valamilyen választ.
Csakhogy a téves vagy kitalált információk aránya eközben 18%-ról 35%-ra nőtt.
Vagyis: ma már nem azt mondja az AI, hogy „nem tudom”, hanem mindenáron mond valamit – még akkor is, ha az nem igaz.
Nem véletlen, hogy az egyik tréner így fogalmazott: „Remek lenne ez a technológia, ha egyszer abbahagyná a hazudozást.”
Rossz adatból rossz döntés születik
Több dolgozó beszélt arról is, hogy az AI sokszor elfogult. Egy történelem szakos tesztelő például azt vizsgálta, hogyan válaszol a chatbot különböző történelmi kérdésekre. Kiderült, hogy a palesztin nép történetéről nem volt hajlandó érdemi választ adni, de az izraeli történelmet hosszasan és részletesen ismertette. A dolgozó jelezte ezt a problémát, de állítása szerint a Google-t nem igazán érdekelte.
Ahogy ő mondta:
Ha hibás vagy hiányos adatot kap a rendszer, hibás vagy torz választ fog adni. Ez egyszerűen így működik.
Gyorsaság vs. minőség
A megszólaló munkások szerint a cégek elsősorban azt várják el, hogy rengeteg feladatot nagy tempóban végezzenek el, gyakran pontatlan instrukciók alapján. Sok esetben néhány másodperc jut egy-egy kérdés átnézésére – ilyen körülmények között nehéz felelősségteljes döntést hozni, mégis ezekből a visszajelzésekből tanulnak a nagy AI-modellek.
Egy szabadúszó dolgozó így fogalmazott:
Ha mi, akik a hibákat javítjuk, nem kapunk rendes útmutatást és időt, akkor hogyan lehetne biztonságos vagy etikus a végeredmény?
A technológiát fejlesztő emberek a saját családjukat is óvják tőle
Többen úgy nyilatkoztak:
- nem vesznek olyan új telefont, amelyben mélyen be van építve az AI,
- elhalasztják az olyan frissítéseket, amelyek automatikusan AI-funkciókat aktiválnak,
- és semmilyen személyes adatot nem írnak be a chatbotoknak.
Egy dolgozó így összegezte: „Én már nem bízom benne, és azt tanácsolom a családomnak is, hogy óvatos legyen.”
Nem csodatechnológia – inkább törékeny rendszer
Szakértők szerint a háttérben dolgozó emberek vallomásai azt bizonyítják, hogy az AI sokszor kevésbé „futurisztikus”, mint amilyennek láttatják. Inkább egy törékeny, folyamatos foltozásra szoruló rendszer, amely emberek tömegeinek bizonytalan munkájára épül – és hibáival együtt válik a mindennapok részévé.
Az egyik kutató így fogalmazott:
Akik kívülről nézik, misztikusnak látják az AI-t. Akik belülről látják, tudják, hogy tele van kompromisszumokkal.
Forrás: hrportal.hu
Legolvasottabb írások24 times!





