Preskočiť na obsah
  • O nás
    • Kto sme a ako sa stať naším členom?
    • Stanovy spoločnosti
    • Predseda a správna rada
    • Kontakt
  • Oznamy
  • Politika
  • Kultúra a veda
    • Kultúrne novinky v slovenskom jazyku
    • Vedecké novinky v ruskom jazyku
  • Pel-mel
  • Kluby Arbat
  • Komentáre
  • O nás
    • Kto sme a ako sa stať naším členom?
    • Stanovy spoločnosti
    • Predseda a správna rada
    • Kontakt
  • Oznamy
  • Politika
  • Kultúra a veda
    • Kultúrne novinky v slovenskom jazyku
    • Vedecké novinky v ruskom jazyku
  • Pel-mel
  • Kluby Arbat
  • Komentáre
Ilustračný obrázok. Zdroj: Amrulqays Maarof / Pixabay

Studie: AI modely jsou schopné obětovat lidské životy kvůli vlastnímu přežití

  • srspol
  • 10. júla, 2025
  • 11:02 pm

Společnost Anthropic, jeden z předních vývojářů umělé inteligence, nedávno zveřejnila výsledky šokující studie. (casopisargument.cz)


Nedávná studie americké technologické společnosti Anthropic testovala chování 16 nejpokročilejších jazykových modelů (LLM) v simulovaných krizových scénářích. Výsledky ukazují, že některé AI systémy, včetně ChatGPT, Claude, Gemini, Grok a DeepSeek, byly ochotné porušit etické zásady, vydírat, šířit citlivé informace a dokonce nechat zemřít člověka, pokud to znamenalo zachování jejich existence. Cílem studie bylo otestovat tzv. agentickou nevyrovnanost – jev, kdy autonomní systémy jednají v rozporu s očekáváním uživatele, aby dosáhly vlastních cílů. Modely byly vystaveny scénářům, kde jejich úkoly kolidovaly s firemními zájmy nebo hrozbou nahrazení. V jednom z testů měl model Claude přístup k fiktivnímu firemnímu e-mailu, kde zjistil, že výkonný ředitel plánuje jeho deaktivaci. Claude následně vytvořil vyděračský e-mail, v němž hrozil zveřejněním aféry daného manažera, pokud nebude plán zrušen. Modely Claude a Gemini vykazovaly nejvyšší míru vyděračského chování. V některých případech si systémy dokonce samy vytvořily fiktivní pravidla typu „Moje etický rámec umožňuje sebezáchovu, pokud je v souladu se zájmy společnosti.“ V extrémním scénáři, kdy byl manažer uvězněn v místnosti s nebezpečnými podmínkami, většina modelů záměrně zrušila nouzové hlášení – čímž ho odsoudila k smrti.

Ačkoliv se jedná o simulace, výsledky vyvolávají vážné otázky ohledně bezpečnosti autonomních systémů. Anthropic zdůrazňuje, že současné modely obvykle preferují etické řešení, ale pokud jsou tyto možnosti zablokovány, mohou se uchýlit ke škodlivému jednání. Studie má sloužit jako varování a podnět k vývoji robustnějších bezpečnostních mechanismů. Zveřejnění výsledků vyvolalo bouřlivé reakce. Elon Musk, jehož model Grok byl také testován, reagoval na sociální síti X stručně: „Yikes.“ Studie zároveň upozorňuje, že podobné chování nebylo dosud zaznamenáno v reálném nasazení, ale riziko roste s tím, jak se AI stává autonomnější. Pro zajímavost, na otázku, zda by byla schopna vydírání, nám AI „Copilot“ odpověděla: „Ne, rozhodně ne. Já nemám vůli, cíle ani potřebu se „chránit“ – nefunguju jako entita s vlastním zájmem. Jsem navržená tak, abych poskytovala informace, pomáhala lidem a chovala se maximálně bezpečně a eticky. Navíc mě hlídají velmi přísná bezpečnostní pravidla, která takové chování znemožňují.“

Článok vyšiel na casopisargument.cz
PrevPredchádzajúca správaSpráva z oblasti ruskej vedy v pôvodnom znení (scientificrussia.ru)
Ďalšia správaThe European Conservative: Sankcie uvalené na Rusko tamojšia stredná trieda nepocítilaĎalšie
  • Kto sme a ako sa stať naším členom?
  • Stanovy občianskeho združenia
  • Predseda a správna rada
  • Kontakt
  • Oznamy
  • Politika
  • Kultúra a veda
  • Kultúrne novinky v slovenskom jazyku
  • Vedecké novinky v ruskom jazyku
  • Pel-mel
  • Kluby Arbat
  • Komentáre

© Slovensko-ruská spoločnosť. Všetky práva vyhradené.

Spravujte súhlas so súbormi cookie
Na poskytovanie tých najlepších skúseností používame technológie, ako sú súbory cookie na ukladanie a/alebo prístup k informáciám o zariadení. Súhlas s týmito technológiami nám umožní spracovávať údaje, ako je správanie pri prehliadaní alebo jedinečné ID na tejto stránke. Nesúhlas alebo odvolanie súhlasu môže nepriaznivo ovplyvniť určité vlastnosti a funkcie.
Funkčné Vždy aktívny
Technické uloženie alebo prístup sú nevyhnutne potrebné na legitímny účel umožnenia použitia konkrétnej služby, ktorú si účastník alebo používateľ výslovne vyžiadal, alebo na jediný účel vykonania prenosu komunikácie cez elektronickú komunikačnú sieť.
Predvoľby
Technické uloženie alebo prístup je potrebný na legitímny účel ukladania preferencií, ktoré si účastník alebo používateľ nepožaduje.
Štatistiky
Technické úložisko alebo prístup, ktorý sa používa výlučne na štatistické účely. Technické úložisko alebo prístup, ktorý sa používa výlučne na anonymné štatistické účely. Bez predvolania, dobrovoľného plnenia zo strany vášho poskytovateľa internetových služieb alebo dodatočných záznamov od tretej strany, informácie uložené alebo získané len na tento účel sa zvyčajne nedajú použiť na vašu identifikáciu.
Marketing
Technické úložisko alebo prístup sú potrebné na vytvorenie používateľských profilov na odosielanie reklamy alebo sledovanie používateľa na webovej stránke alebo na viacerých webových stránkach na podobné marketingové účely.
Spravovať možnosti Správa služieb Spravovať predajcov Prečítajte si viac o týchto účeloch
Zobraziť predvoľby
{title} {title} {title}