Cookie / Süti tájékoztató
Kedves Látogató! Tájékoztatjuk, hogy a weboldal működésének biztosítása, látogatóinak magasabb szintű kiszolgálása, látogatottsági statisztikák készítése, illetve marketing tevékenységünk támogatása érdekében cookie-kat alkalmazunk. Az Elfogadom gomb megnyomásával Ön hozzájárulását adja a cookie-k, alábbi linken elérhető tájékoztatóban foglaltak szerinti, kezeléséhez.
Elfogadom
Nem fogadom el
A generatív nyelvi modellek biztonságosságát és hatékonyságát javító projekt indul az SZTE-n
2025.03.13

A generatív nyelvi modellek biztonságosságát és hatékonyságát javító projekt indul az SZTE-n

A generatív nyelvi modellek biztonságosságát és hatékonyságát javító projekt indul a Szegedi Tudományegyetemen (SZTE) együttműködve az amerikai Rutgers Universityvel és a német Ludwig-Maximilians-Universitättel - tájékoztatta a felsőoktatási intézmény közkapcsolati igazgatósága.

A közlemény szerint a generatív modellek - amelyek különféle algoritmusok és gépi tanulási modellek segítségével a megadott utasítások alapján hoznak létre új tartalmakat - képesek lehetnek sakkozni, de felmerül a kérdés, hogy valóban ismerik-e a játékszabályokat, vagy csupán mintázatokat követnek anélkül, hogy értenék a játék működését.

A HU-rizont pályázat 361 millió forintos támogatásával megvalósuló RAItHMA projekt keretében induló kutatás egyik fontos témája, hogy a generatív MI modellek hogyan reprezentálják az egyes fogalmakat, és ezek a fogalmak milyen kapcsolatban állnak egymással. Magyarán, ha egy chatbot igaznak ítél egy állítást, vajon automatikusan hamisnak tartja annak tagadását? Az emberi gondolkodás számára ez magától értetődő, de a nyelvi modellek esetében nem minden esetben teljesül.

A kutatók arra is keresik a választ, hogy milyen belső tudással rendelkezik a modell, és miképpen csökkenthető a kommunikációs zavar ember és gép között. Amellett, hogy ez a munka a generatív MI megbízhatóságának javítását szolgálja, új távlatokat nyithat a modellek alkalmazásában számos területen.

Ahogy egyre több területen alkalmazzák a mesterséges intelligenciát, komoly kockázatot jelent, ha nem értjük pontosan, hogyan működnek ezek a modellek. Egy önvezető autó például képes felismerni az előtte haladó járműveket és a közlekedési táblákat, de nem képes megérteni a közlekedési helyzeteket. Egy ember tudja, hogy ha egy labda begurul az útra, valószínűleg egy gyerek fog utána szaladni - a mesterséges intelligencia viszont ezt a kontextust egyelőre nem képes felismerni.

Az egyik alapvető hiányosság, hogy a modellek nem építenek ki stabil világmodellt, ami kulcsfontosságú lenne a megbízható működéshez. Az SZTE kutatói nemzetközi partnereikkel együtt arra törekednek, hogy feltárják a generatív MI korlátait és mélyebben megértsék működését. Első lépésként ugyanis, ha pontosabb képet kapunk arról, hogyan "gondolkodnak" ezek a rendszerek és milyen hibák jellemzik őket, az hosszú távon segíthet új megközelítéseket kialakítani. Az így szerzett tudás hozzájárulhat a jövő MI-rendszereinek alakításához, a hatékonyabb, megbízhatóbb tervezéshez - írták a közleményben.

______

Forrás: mti

Következő esemény
2025.05.27 00:00