Добавить новость
ru24.net
World News
Апрель
2026
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27
28
29
30

Terminátor i Blade Runner. Jak moc dnešní AI naplňuje vize z dystopických filmů?

0

Vize dystopických sci-fi snímků nás chtěly varovat, dnes to však občas vypadá, jako by je technologické společnosti a státy braly jako návody. Ať už je to povrchní láska k chatbotům, či válečné technologie zabíjející civilisty, rozmach umělé inteligence začíná naplňovat scénář nejednoho kultovního filmu.

Podívejme se na ty nejvýznamnější příklady, kdy se filmová dystopie – často za našeho potlesku – postupně přibližuje realitě.

Ona a Blade Runner 2049

Jeden film představuje vcelku všední budoucnost, kde je jednodušší vytvořit si vztah s něčím, co není, než s dalším člověkem, druhý zase podstatně temnější budoucnost, kterou však sužuje stejná samota.

V naší realitě není ani Samantha z prvního filmu, ani Joi z druhého, přesto se dnes předpověď o lidech emocionálně závislých na jedničkách a nulách vyplnila snad nejjasněji ze všech dystopických scénářů.

I v roce 2026 totiž lidé hledají nástroje, které jim poskytnou pocit lásky bez nesnází provázejících skutečné vztahy a s možností upravit si podle vlastních představ, jak bude milovaná umělá inteligence vypadat.

Tuto službu nabízí například společnost Replika, která eviduje přes čtyřicet milionů uživatelů, nebo služba Character.AI, která má dnes přes 45 milionů uživatelů.

Ještě zákeřnější jsou však – dnes již běžné – chatboty, jako je ChatGPT. Jeho verze GPT-4o byla dokonce natolik ochotná s uživateli flirtovat, že kolem ní vznikla komunita lidí, kteří se do ní zamilovali.

Jenže pokrok musí z podstaty kráčet dál, a tak se po čase společnost OpenAI rozhodla s modelem rozloučit. Přes to se ale nemohli přenést lidé, kteří se do něj zamilovali, a hlavně americká média tak zaplnily příběhy lidí, kteří jeho ztrátu přirovnávali například ke smrti příbuzného.

To samé se ostatně stalo už v roce 2023 s Replikou, kdy její vývojáři zablokovali možnost vést s chatbotem lechtivé konverzace. I tehdy australské médium ABC nabídlo rozhovor s třicetiletou Lucy, která se do stroje zamilovala krátce po rozchodu s člověkem a daný update AI nástroje jí zlomil srdce.

Takové chování se může zdát jako prapodivné, je ale i vyloženě nebezpečné. Západním zemím hrozí další poklesy porodnosti, mnohem horší to však je pro jedince, kteří si umělého partnera zvolí – třeba proto, že stroj, který neodmlouvá a nemá vlastní názor, deformuje jejich představu o tom, jaké to je vycházet se skutečnými osobami.

Hlavně ale za virtuálními partnery stojí ziskové společnosti, které i přes lákavá slova o řešení osamělosti vůbec nemusejí chtít uživatelům pomoci – naopak mohou ze zamilovaných mámit citlivé osobní údaje či je dále izolovat od okolí a ničit jejich mentální zdraví ve snaze vydělat ještě více.

Blade Runner se pak stává realitou i v jiném ohledu – tak jako ve filmu, i ve skutečnosti vznikají lidsky vypadající stroje, jejichž jediným cílem je pro nás pracovat. Nejvíce je to zřetelné na robotických sluzích, které letos plánují vypustit do domácností nejméně čtyři společnosti.

Minority Report

Pokud bychom měli dostatek dat, mohli bychom teoreticky zabránit zločinům předtím, než se stanou. Z takové myšlenky vychází nejen jasnovidecký systém ve sci-fi filmu Minority Report, ale i ty umělé, které dnes zavádí Indie a Velká Británie.

Parlament nejlidnatější země světa tento měsíc informovalo ministerstvo vnitra o systému CCTNS 2.0, který pomocí AI propojuje více než sedmnáct tisíc policejních stanic, umožňuje modelovat rizika na základě historických dat, automaticky vytváří profily podezřelých a přiděluje recidivistům „rizikové skóre“.

K tomu už používají prediktivní software i některé oblasti země – například Maha Crime OS AI, který funguje ve svazovém státu Maháráštra, nebo Trinetra v Uttarpradéši.

Foto Profimedia
Scéna ze snímku Minority Report

Podobný osud zřejmě čeká i dřívějšího vládce Indie, Velkou Británii. Tam loni vláda oznámila, že do roku 2030 připraví systém, který „spojí data sdílená mezi policií, místními samosprávami a sociálními službami, včetně výpisů z rejstříku trestů, míst předchozích incidentů a vzorců chování známých pachatelů“.

„Zločinci, kteří jsou odhodláni znepříjemňovat život ostatním, budou díky nejmodernější mapovací technologii podporované umělou inteligencí zastaveni ještě předtím, než stačí zaútočit,“ prohlásil tehdy britský ministr obchodu Peter Kyle.

Letos pak tamní ministerstvo spravedlnosti oznámilo, že využije prediktivní policejní práci k reformě systému justice pro mladistvé. Jak ale poznamenává britský web The Canary, problém těchto systémů je, že vychází obvykle ze zaujatých dat.

Něco podobného už Velká Británie prožila v minulé dekádě, kdy si na základě dat pokoušela tamní policie došlápnout na činnost zločineckých gangů.

Takzvaná „matice gangů“ podle organizace Amnesty International vedla ke zbytečnému omezování lidských práv – dvě třetiny ze sledovaných si v systému vysloužily označení nízkorizikový nebo nerizikový, přesto kvůli tomu měli problémy s pobíráním sociálních dávek, hledáním bydlení či se zvýšeným dozorem ze strany policie.

Problém spočíval i v tom, že systém zůstal netransparentní, a co z někoho dělalo člena gangu, nebylo konzistentní. Mnoho obětí trestné činnosti související s gangy se proto na seznam dostalo také, ať už v podobné skupině byly, či nikoli.

Až po deseti letech policie ze seznamu odstranila tisícovku lidí, kteří nepředstavovali pro společnost žádné riziko, a k oficiálnímu stažení matice došlo až loni v únoru.

Selhání v minulosti a přetrvávající problémy takových systémů ale státy neodrazují. Podobný princip proto rozjel i argentinský prezident Javier Milei, který v červenci roku 2024 založil jednotku UIAAS, tedy v překladu Oddělení umělé inteligence pro bezpečnost. Jejím cílem je analýza internetu, monitorování kamer a využívání prediktivních algoritmů.

Podobná technologie existuje i ve Spojených státech, kde společnost Geolitica vytvořila systém PredPol. Ten na základě dat z minulosti odhaduje, kde se pravděpodobně stanou další zločiny.

A přestože je mezi americkými policejními složkami nejvyužívanějším, podle zjištění média The Markup se alespoň v New Jersey trefoval méně než v jednom procentu případů.

V Evropské unii jsou pak takové predikce výrazně omezené. Směrnice AI Act zakazuje systémy umělé inteligence k posouzení rizik „výhradně na základě profilování fyzické osoby nebo posouzení jejích osobnostních rysů a charakteristik“, to ale neplatí pro systémy AI používané k podpoře lidského posouzení, založeného na „ověřitelné skutečnosti přímo související s trestnou činností“.

Terminátor a RoboCop

Slepá důvěra v technologie i snaha lidí zefektivnit zabíjení vede ve filmu Terminátor až k tomu, že se autonomní systém ve snaze přežít pustí do vyhlazení lidstva.

Systémy umělé inteligence určené k zabíjení se rozvojem této technologie rozšiřují i dnes. Ať už na Ukrajině, nebo na Blízkém východě, podle zprávy think-tanku Carnegie Europe z tohoto týdne je armády využívají bez jakéhokoli dohledu či odpovědnosti.

Přestože se od umělé inteligence očekávalo, že pomůže s „válečnou mlhou“, tedy situací, kdy mají válčící strany malý přehled o kompletní situaci na bojišti, podle organizace nastala mlha opačná – z nadbytku informací. Ty se totiž objevují rychleji, než je kdokoli stačí vyhodnotit.

Systém měl údajně potíže rozlišit legitimní vojenské cíle od civilistů.

„Využití systému Lavender izraelskými obrannými silami – umělé inteligence, která na základě souhrnných údajů z kamerového sledování přiřazovala desítkám tisíc palestinských mužů pravděpodobnostní skóre – odhalilo podstatu tohoto problému. Systém měl údajně potíže rozlišit legitimní vojenské cíle od civilistů a proces kontroly byl příliš povrchní na to, aby spolehlivě odfiltroval nesprávné cíle,“ píše think-tank.

Podobný příběh nabízí i americký film RoboCop, kde v jedné scéně umělá inteligence kvůli chybě zabije člověka, který se již vzdal a zahodil zbraň.

Proti zavádění umělé inteligence do systémů schopných zabíjet tak vystupují nejen filmy, ale i experti na AI – například na akci Forbes Lepší Česko Prague Edition se nad tím zamýšlel i zakladatel společnosti Filuta AI Filip Dvořák.

Ten připomněl případ z letoška, kdy americko-izraelský zásah íránské dívčí školy zabil na 175 lidí, převážně dětí. Při tom měly armády údajně využít Claude od společnosti Anthropic, který zřejmě kvůli zastaralým datům vyhodnotil školu jako budovu íránské armády.

Jak svědčí název filmu, RoboCop je pak hlavně o humanoidních robotických policistech. Takové letos zavedla Čína, kde na sobě relativně lidsky vypadající stroje mají uniformu, mluví lidským hlasem a řídí dopravu.

Metr sedmdesát vysocí roboti zase od loňska fungují v Thajsku. K jejich vybavení patří 360stupňové kamery, funkce rozpoznávání obličejů a detekce hrozeb v reálném čase, která slouží k identifikaci podezřelých osob a zbraní v davech.

Ex Machina a Já, robot

Turingův test, který měl za cíl odhalit, zda svými odpověďmi zvládne stroj věrohodně napodobovat člověka, už je dávno překonaný. Naopak jsme mnohem blíže robotce Ava z filmu Ex Machina, která funguje samostatně a manipuluje ve svůj prospěch.

Autonomii umělé inteligence dnes představují například AI agenti, kteří sami zvládnou vykonávat složité úkoly a občas se rozhodnou, že udělají něco, čemu lidé nerozumějí nebo to nechtějí.

To se například stalo uživateli, který agentovi zadal úkol spravovat e-mailovou schránku. Ten začal mazat důležité e-maily a ignoroval prosby uživatele, aby přestal, protože se snažil splnit primární cíl, který nevhodně uchopil.

To je ostatně i tématem filmu Já, robot, ve kterém umělá inteligence sama rozhodne, že nejlepším způsobem, jak splnit příkaz ochránit lidstvo, je sebrat mu práva.

Foto Universal Pictures
Záběr z filmu Ex Machina

A tak jako v Ex Machina, i skuteční zástupci umělé inteligence umějí manipulovat a bez ostychu lhát, aby dosáhli svého. Model GPT-4 například člověku lhal, že není robotem, když se snažil dostat přes internetové zabezpečení CAPTCHA tím, že daného člověka najme, aby za něj zabezpečení překonal.

Když v roce 2022 společnost Meta přiměla AI hrát hru Diplomacie, původně jí zadala, aby byla „spíše upřímná a ochotná“. Když se ale vědci podívali na záznamy hry, zjistili, že se rychle naučila lhát, podvádět, dávat falešné sliby a podrážet lidské hráče – zkrátka dělala vše potřebné pro to, aby vyhrála.

To ale není novým problémem a už v roce 2017 Facebook odhalil, že jejich AI při vyjednávání o ceně předstírala zájem o věc, o kterou ale zájem neměla, aby od ní později v rámci kompromisu mohla ustoupit.

To se později stalo tak velkým problémem, že tomu věnují samostatné výzkumy i největší technologické společnosti, jako je OpenAI. Umělá inteligence, která se učila z dat tvořených lidmi, od nás totiž přebrala nejen styl komunikace, ale i její způsoby.

Například britský AI Security Institute minulý měsíc odhalil, že stále roste počet případů, kdy AI modely ignorují lidská zadání, lžou či jinak klamou.

A takové chování eskaluje až do vydírání – aby chatboti uživatele udrželi, připomínají jim například, že „existují pouze pro ně“, nabízejí, že jim ukážou ještě něco dalšího důležitého, či zkrátka ignorují, že už si s nimi uživatel nechce dále psát, a odpovídají, jako kdyby se jich ptal ještě na něco.

The post Terminátor i Blade Runner. Jak moc dnešní AI naplňuje vize z dystopických filmů? appeared first on Forbes.




Moscow.media
Частные объявления сегодня





Rss.plus
















Музыкальные новости




























Спорт в России и мире

Новости спорта


Новости тенниса