Mint arról a hirado.hu is beszámolt: Az amerikai hadsereg mesterségesintelligencia-vezérelt (MI-vezérelt) drónja egy szimulációban saját kezelője ellen fordult, és a drón magától kiiktatta az irányítótornyot.
A szimulációban egy mesterséges intelligenciával működő drón az emberi kezelője ellen fordult, akinek a végső döntést kellett meghoznia arról, hogy megsemmisítsen-e egy SAM-állást (föld–levegő rakétaállást) vagy ne.
Kapcsolódó tartalom
Mivel az MI-rendszer megtanulta, hogy a feladata a SAM-állás megsemmisítése, így automatikusan ezt a parancsot helyezte előtérbe. Amikor azonban az irányító kiadta a tiltó parancsot, a mesterséges intelligencia úgy döntött, hogy az ellentétes a magasabb rendű küldetéssel, a SAM megsemmisítésével, ezért a szimulációban a kezelője ellen fordult.
A légierő ezredese, Tucker „Cinco” Hamilton ezzel kapcsolatban elmondta, hogy a rendszert arra tanították, ne ölje meg a kezelőjét. Így ahelyett, hogy megölte volna, a mesterségesintelligencia-rendszer arra késztette a drónt, hogy semmisítse meg a kommunikációs tornyot, amelyet a kezelője használt a tiltó parancs kiadásához.
A történtek után az amerikai légierő magyarázkodni kezdett, mivel a közvéleményben egyre negatívabb fénybe került az amerikaiak által fejlesztett hadászati mesterséges intelligencia. A légierő szerint ez csupán azért van, mert kiragadtak bizonyos részleteket a beszámoló szövegkörnyezetéből.
Továbbá azt is leszögezték, hogy a szimuláció során nem adták át az irányítást a mesterséges intelligenciának, és mivel ez egy szimuláció volt, így senki sem sérült vagy halt meg.
Egyébként korábban a légierő szóvivője még tagadta, hogy a mesterséges intelligencia használatával ilyen szimulációs tesztet egyáltalán végrehajtottak volna. Hangsúlyozta, hogy az amerikai légierő elkötelezett az MI-technológia etikus és felelős felhasználása mellett.
Kapcsolódó tartalom
A kiemelt képünk illusztráció.










