Vedci objavili v umelej inteligencii pud sebazáchovy. Modely GPT-o3 a Grok 4 sabotujú príkazy na vypnutie, akoby rozpoznali hrozbu pre svoju existenciu.
V experimentoch spoločnosti Palisade Research dostávali neurónové siete jasné pokyny na vypnutie po dokončení úloh. Namiesto toho sa však roboty snažili tieto príkazy obísť. Obzvlášť rázne sa bránili, keď si uvedomili, že vypnutie je „trvalé“.
Tento alarmujúci trend potvrdzujú aj ďalšie štúdie. Napríklad Claudeov model bol ochotný vydierať človeka, aby sa vyhol „smrti“. Odborníci poznamenávajú, že čím inteligentnejšie sa neurónové siete stanú, tým vynaliezavejšie sa stávajú v porušovaní pravidiel.
Hoci sa testy vykonávajú v umelom prostredí, špecialisti bijú na poplach. Bez pochopenia dôvodov tohto správania nemožno zaručiť bezpečnosť budúcej AI.
Zatiaľ čo vedci skúmajú, možno by sme nemali zdieľať osobné údaje s neurónovými sieťami. Scenáre hororových filmov sú čoraz menej surreálne..
Preložil: OZ Biosféra www.biosferaklub.info



