Rendkívüli

Pilisborosjenőn porcukor helyett tisztítószer került óvodások ételébe

Az uborka görbületét jobban szabályozza az EU, mint a mesterséges intelligenciát fogja

| Szerző: hirado.hu
Az Európai Bizottság 2021 áprilisában javaslatot tett a mesterséges intelligencia első uniós szabályozási keretrendszerére. Eszerint a különböző alkalmazásokban használható mesterségesintelligencia-rendszereket elemzik és osztályozzák aszerint, hogy milyen kockázatot jelentenek a felhasználók számára. Az OpenAI techcég több esetben is módosításokat javasolt, amelyek később bekerültek a törvény szövegébe, amit az Európai Parlament június 14-én hagyott jóvá, és amely most a tárgyalások utolsó fordulójába kerül, mielőtt még jövő januárban véglegesítik.

Az OpenAI mesterségesintelligencia-kutatólaboratórium vezérigazgatója, Sam Altman az elmúlt hónapban különféle előadásokon vett részt világszerte, ráadásul befolyásos politikusokkal is megbeszéléseket folytatott, és rendre a globális mesterséges intelligencia (MI) szabályozásának szükségességéről beszélt.

A színfalak mögött azonban az OpenAI bizonyos MI-szabályozások felhígításáért lobbizott, amelyek jelentősen csökkentenék a vállalat szabályozási terheit

– írja a The Time az Európai Bizottságtól megszerzett dokumentumokra hivatkozva.

Az OpenAI több esetben is olyan módosításokat javasolt, amelyek később bekerültek az EU-törvény szövegébe, amit az Európai Parlament június 14-én hagyott jóvá, és amely most a tárgyalások utolsó fordulójába kerül, mielőtt még januárban véglegesítik.

2022-ben az amerikai cég azzal érvelt az európai tisztviselőknek, hogy a készülő MI-törvény ne tekintse magas kockázatúnak az általános célú MI-rendszereit – köztük a GPT–3-at, a ChatGPT előfutárát –, ami szigorú jogi követelményekhez kötné őket,

beleértve az átláthatóságot, a nyomon követhetőséget, valamint az emberi felügyeletet.

Kapcsolódó tartalom

Ezzel az érveléssel az OpenAI közös nevezőre került a Microsofttal és a Google-lel, amelyek korábban már lobbiztak az EU tisztviselőinél a nagy MI-szolgáltatókra vonatkozó törvény szabályozási terheinek enyhítése érdekében.

Mindkét vállalat azzal érvelt, hogy a törvény legszigorúbb követelményeinek való megfelelés terhét azokra a vállalatokra kell hárítani, amelyek kifejezetten magas kockázatú felhasználási esetekre kívánnak mesterséges intelligenciát alkalmazni, nem pedig az általános célú mesterségesintelligencia-rendszereket építő (gyakran jóval nagyobb) vállalatokra.

Önmagában a GPT–3 nem minősül magas kockázatú rendszernek (…), de rendelkezik olyan képességekkel, amelyek potenciálisan alkalmazhatók magas kockázatú felhasználási esetekben” – áll az OpenAI korábban nem publikált hétoldalas dokumentumában, amelyet 2022 szeptemberében küldött el az Európai Bizottság és az Európai Tanács tisztviselőinek.

A cég európai lobbitevékenységéről korábban nem számoltak be, bár Altman az utóbbi időben igencsak gyakran beszélt a jogszabályról. Májusban egy londoni eseményen újságírói kérdésre azt mondta, hogy az OpenAI dönthet úgy, hogy beszünteti a működését Európában, ha úgy ítéli meg, hogy képtelen megfelelni a szabályozásnak, amellyel kapcsolatban sok kritikát fogalmazott meg. Később visszavonta a figyelmeztetést, mondván, hogy cége nem tervezi a távozást, és együtt kíván működni az EU-val.

Kapcsolódó tartalom

Az OpenAI lobbitevékenysége most úgy néz ki, hogy sikert aratott.

Az uniós törvényhozók által elfogadott végleges törvénytervezet nem tartalmazott olyan, a korábbi tervezetekben szereplő megfogalmazást, amely szerint az általános célú mesterségesintelligencia-rendszereket eleve magas kockázatúnak kellene tekinteni.

Ehelyett az elfogadott törvény az úgynevezett alapmodellek, vagyis a nagy adatmennyiségeken kiképzett, nagy teljesítményű mesterségesintelligencia-rendszerek szolgáltatóit arra szólította fel, hogy teljesítsenek egy rakás követelményt, ideértve az illegális tartalom létrehozásának megakadályozását, annak nyilvánosságra hozatalát, hogy a rendszert szerzői jogvédelem alatt álló anyagokon képezték-e ki, valamint kockázatértékelés elvégzését. Az OpenAI támogatta az „alapmodellek” késői bevezetését külön kategóriaként a törvényben – fogalmazott a cég szóvivője a The Time-nak.

Akkor, 2022 szeptemberében azonban még nem született meg ez a látszólagos kompromisszum. Az OpenAI által az európai tisztviselőkkel akkoriban megosztott „fehér könyv” egyik részében a vállalat visszautasította az MI-törvény javasolt módosítását, amely magas kockázatúnak minősítette ChatGPT-hez hasonló generatív rendszereket, ha olyan szöveget generálnak, amelyek egy ember számára tévesen ember által létrehozottnak és hitelesnek tűnhetnek. Az OpenAI ebben azt is állította, hogy az ominózus módosítás azt jelentené, hogy modelljeik magas kockázatúnak minősülnének, ezért annak elvetését javasolta. A vállalat azt közölte, elegendő lenne a törvény egy másik részére támaszkodni, amely előírja, hogy a mesterséges intelligenciával létrehozott tartalmak szolgáltatói kellőképpen jelöljék meg a technológia segítségével létrehozott tartalmakat, továbbá a felhasználók számára egyértelművé kell tenni, hogy MI-rendszerrel lépnek kapcsolatba.

Kapcsolódó tartalom

Az OpenAI által kifogásolt módosítás nem került be az Európai Parlament által júniusban elfogadott MI-törvény végleges szövegébe.

Azt kapták, amit kértek

– mondta Sarah Chander, a European Digital Rights (EDRi) nevű brüsszeli érdekképviseleti csoport vezető politikai tanácsadója. A „fehér könyvnek” nevezett dokumentum szerinte azt mutatja, hogy

az OpenAI, sok nagy technológiai vállalathoz hasonlóan, a mesterséges intelligencia hasznosságára és közhasznára vonatkozó érvet használta fel arra, hogy elfedje pénzügyi érdekeltségét a szabályozás felhígításában.

2022 júniusában, három hónappal a „fehér könyv” beküldése előtt az OpenAI három munkatársa Brüsszelben találkozott az Európai Bizottság tisztviselőivel. „Az OpenAI azt szerette volna, ha a bizottság tisztázza a kockázati keretrendszert, és megtudja, hogyan tudna segíteni” – áll a találkozóról készült, a bizottság által vezetett hivatalos jegyzőkönyvben.

A tisztviselők azt kommunikáltál a találkozó után, hogy az OpenAI fél a „túlszabályozástól”, amely hatással lehet az MI-innovációra. A lap forrása szerint a vállalat munkatársai a megbeszélésen elmondták, hogy tisztában vannak a kockázatokkal, és mindent megtesznek azok mérséklése érdekében.

Alapvetően az volt az üzenet, hogy bízzuk csak rájuk a saját maguk szabályozását” – mondta a megszerzett dokumentummal kapcsolatban a lap által megkérdezett szakértő.

Kapcsolódó tartalom

A „fehér könyv” más részeiben az OpenAI a törvény olyan módosításai mellett érvel, amelyek lehetővé tennék, hogy a mesterséges intelligencia szolgáltatói biztonsági okokból gyorsan frissíthessék rendszereiket anélkül, hogy előbb az EU tisztviselőinek esetlegesen hosszadalmas értékelésén kellene átesniük.

A cég indítványozta, hogy tegyenek rendszereikkel kivételt, és használhassák azokat olyan ágazatokban, mint például az oktatás (amelyet egyébként a törvény első tervezete szerint a mesterséges intelligencia „magas kockázatú” felhasználási területének kellene tekinteni).

Az OpenAI folytatta az együttműködést az MI-törvényen dolgozó európai tisztviselőkkel, és egy későbbi találkozón, idén március 31-én bemutatták a ChatGPT biztonsági funkcióit – derül ki a bizottság által vezetett hivatalos jegyzőkönyvből. Az OpenAI egyik munkatársa a találkozón kifejtette, hogy a működés általi tanulás (…) nagy jelentőséggel bír.

A San Franciscó-i székhelyű cég munkatársai azt bizonygatták a megbeszélésen, hogy az MI-nek adott utasításokat úgy lehet konfigurálni, hogy az visszautasítsa például a veszélyes anyagok létrehozásáról szóló információk megosztását. Ez azonban a lap szerzője szerint nincs mindig így, sőt,

kutatók bebizonyították, hogy a ChatGPT-t megfelelő rábeszéléssel rá lehet venni, hogy megkerülje biztonsági szűrőit, és teljesítse a kért utasításokat (például adathalász e-maileket írjon, vagy ennél is komolyabb dolgok).

Kapcsolódó tartalom

A kiemelt kép illusztráció. (Forrás: Getty Images) 

Ajánljuk még