Nové správy o vzostupe umelej inteligencie (AI) ukázali, že incidenty spojené s porušeniami etiky sa za dva roky viac ako zdvojnásobili.

Žiaden z týchto študentov nepoužíval počas skúšky ChatGPT. Používali? (Foto: Jerome Favre – Pool/Getty Images)
Zároveň sa zmenšujú pracovné príležitosti na vstupnej úrovni, čiastočne kvôli šíreniu tejto automatizácie.
Umelá inteligencia sa mimoriadnou rýchlosťou presúva z okraja do hlavného prúdu a pracoviská aj univerzity s tým len ťažko držú krok.
Nástroje ako ChatGPT, Gemini a Claude sa teraz používajú na písanie e-mailov, analýzu údajov, písanie kódu, hodnotenie esejí a dokonca aj na rozhodovanie o tom, kto dostane pracovný pohovor.
Popri tomto rýchlom zavádzaní marcová správa spoločnosti McKinsey, júlová správa OECD a skoršia správa agentúry Rand varovali pred prudkým nárastom etických kontroverzií – od škandálov s podvádzaním na skúškach až po zaujaté náborové systémy a hrozby v oblasti kybernetickej bezpečnosti – čo spôsobilo, že regulačné orgány a inštitúcie sa snažili na to reagovať.
Prieskum spoločnosti McKinsey uviedol, že takmer osem z desiatich organizácií v súčasnosti používa umelú inteligenciu aspoň v jednej obchodnej funkcii, čo je nárast oproti polovici v roku 2022.
Hoci prijatie sľubuje rýchlejšie pracovné postupy a nižšie náklady, mnoho spoločností nasadzuje umelú inteligenciu bez jasných politík. Univerzity čelia podobným problémom, pričom študenti sa čoraz viac spoliehajú na umelú inteligenciu pri zadaniach a skúškach, zatiaľ čo akademické pravidlá zostávajú nekonzistentné, uvádza sa v správe.
Monitor incidentov a rizík súvisiacich s umelou inteligenciou OECD uviedol, že etické a prevádzkové problémy súvisiace s umelou inteligenciou sa od roku 2022 viac ako zdvojnásobili.
Medzi bežné obavy patrila zodpovednosť – kto je zodpovedný, keď umelá inteligencia urobí chybu; transparentnosť – či používatelia rozumejú rozhodnutiam umelej inteligencie; a spravodlivosť, či umelá inteligencia diskriminuje určité skupiny.
Mnohé modely fungovali ako „čierne skrinky“, ktoré produkovali výsledky bez vysvetlenia, čo sťažovalo odhalenie a opravu chýb.
Na pracoviskách sa umelá inteligencia používa na preverovanie životopisov, hodnotenie uchádzačov a monitorovanie výkonu. Štúdie však ukazujú, že umelá inteligencia vyškolená na historických údajoch dokáže replikovať predsudky a neúmyselne uprednostňovať určité skupiny.
Rand uviedol, že umelá inteligencia sa používala aj na manipuláciu s informáciami, ovplyvňovanie rozhodnutí v citlivých sektoroch a vykonávanie kybernetických útokov.
Medzitým 41 percent profesionálov uvádza, že zmeny spôsobené umelou inteligenciou poškodzujú ich duševné zdravie, pričom mladší pracovníci pociťujú najväčšie obavy o istotu zamestnania.
Údaje z LinkedInu ukázali, že počet pozícií na vstupnej úrovni v USA od roku 2023 klesol o viac ako 35 percent, pričom 63 percent manažérov očakávalo, že umelá inteligencia nahradí úlohy, ktoré v súčasnosti vykonávajú juniorní zamestnanci.
Aneesh Raman, riaditeľ pre ekonomické príležitosti v LinkedIn, to opísal ako „dokonalú búrku“ pre nových absolventov: zmrazenie náboru, ekonomická neistota a narušenie umelej inteligencie, ako informovala BBC 26. augusta.
LinkedIn predpovedá, že 70 percent pracovných miest bude do roku 2030 vyzerať veľmi odlišne.
Nedávny výskum Stanfordskej univerzity potvrdil, že zamestnanosť medzi pracovníkmi na začiatku kariéry v pozíciách vystavených umelej inteligencii klesla o 13 percent odkedy sa generatívna umelá inteligencia rozšírila, zatiaľ čo skúsenejší pracovníci alebo pozície menej vystavené umelej inteligencii zostali stabilné.
Zistilo sa, že spoločnosti sa prispôsobujú skôr prepúšťaním než znižovaním platov, čím vytláčajú mladších pracovníkov.
V Belgicku sa diskusie o etike a spravodlivosti umelej inteligencie zintenzívnili po škandále s prijímacími skúškami na lekárske fakulty vo Flámsku.
Vyšetrovatelia počas testu prichytili troch kandidátov pri používaní ChatGPT.
Samostatne sa odvolalo 19 študentov s podozrením, že iní mohli nespravodlivo používať umelú inteligenciu po nezvyčajne vysokej miere úspešnosti: Z 5 544 účastníkov uspelo približne 2 608, ale na lekársku fakultu sa mohlo dostať iba 1 741. Miera úspešnosti vzrástla z 18,9 percenta v roku 2024 na 47 percent, čo vyvolalo obavy o spravodlivosť a možné zneužitie umelej inteligencie.
Flámsky minister školstva Zuhal Demir odsúdil incidenty a povedal, že študenti, ktorí používali umelú inteligenciu, „oklamali seba, univerzitu aj spoločnosť“.
Predseda skúšobnej komisie, profesor Jan Eggermont, poznamenal, že vyššia miera úspešnosti môže odrážať aj jednoduchšie otázky, ktoré boli zámerne zjednodušené po tom, čo sa skúška z predchádzajúceho roka ukázala ako nadmerne náročná, ako aj rekordný počet účastníkov, a nie len podvádzanie s pomocou umelej inteligencie.
Francúzsky hovoriace univerzity v druhej časti krajiny sa týmto škandálom netrápili, pretože stále vykonávajú prijímacie skúšky na medicínu výlučne na papieri, čo Demir povedal, že zvažuje aj v budúcnosti.
Zdroj: https://brusselssignal.eu/2025/09/ai-ethics-under-scrutiny-young-people-most-exposed/
Ďakujeme, že ste našimi čitateľmi.
Naše sociálne siete:
facebook.com/NieProgresivizmu
t.me/progresivne
instagram.com/nie_progresivne.



Musíš byť prihlásený pre poslanie komentára.