Sokkolóan terjed a mesterséges intelligenciával készített gyerekpornó

adathalászat
Computer hacker, conceptual image.
Vágólapra másolva!
A technológiai óriások, köztük a TikTok és a Snapchat, aláírtak egy ígéretet, amelyben megfogadják, hogy fellépnek a gyermekek szexuális zaklatásáról készült mesterségesen generált képek terjedése ellen.
Vágólapra másolva!

Suella Braverman, angol belügyminiszter nemrégiben egy rendezvényen látta vendégül a vállalatokat, valamint jótékonysági szervezeteket, akadémikusokat és a brit és az ausztrál kormány képviselőit, hogy foglalkozzanak a mesterséges intelligenciával generált, gyermekekkel való visszaélést ábrázoló anyagok „sokkoló" terjedésével.

A kép csak illusztráció. Forrás: AFP/Science Photo Library/Igor Stevanovic

Az eseményre azt követően került sor, hogy egy internetes biztonsági szervezet arra figyelmeztetett, hogy a valósághű képek a gyermekek elleni szexuális erőszak normalizálódásának kockázatát hordozzák magukban.

Az IWF adatai szerint több ezer szexuálisan zaklatott gyermeket ábrázoló képet lehetett találni a dark weben, amelyek elég valósághűek ahhoz, hogy az Egyesült Királyság törvényei szerint valódi képként kezeljék őket.

A szervezet, amely a gyermekbántalmazásról készült online képek és videók azonosításán és eltávolításán dolgozik, azt mondta, hogy az AI által generált anyagok megnehezíthetik annak felismerését, ha valódi gyermekek vannak veszélyben.

A technológiai cégek, köztük az OnlyFans és a Stability AI által aláírt közös nyilatkozatban a belügyminisztérium szerint a „technikai innováció fenntartása mellett kötelezték el magukat a gyermekek szexuális zaklatása elleni küzdelemmel kapcsolatban a mesterséges intelligencia korában".

A nyilatkozat megerősíti, hogy a mesterséges intelligenciát úgy kell fejleszteni, hogy az „a gyermekek szexuális visszaélésekkel szembeni védelmének közös javát szolgálja minden nemzetnél".

A nyilatkozatot aláírta az NSPCC, a National Crime Agency és a National Police Chiefs' Council is.

Ha szeretne még több érdekes techhírt olvasni, akkor kövesse az Origo Techbázis Facebook-oldalát, kattintson ide!