Skip to main content
Kształtowanie cyfrowej przyszłości Europy
News article | Publikacja

Spotkaj się z przewodniczącymi odpowiedzialnymi za opracowanie pierwszego ogólnego kodeksu postępowania w zakresie sztucznej inteligencji

Przewodniczący ogłosili utworzenie czterech grup roboczych pierwszego ogólnego kodeksu postępowania w zakresie sztucznej inteligencji.

Setki uczestników mają wziąć udział w inauguracyjnej sesji plenarnej w celu opracowania pierwszego kodeksu postępowania dotyczącego modeli sztucznej inteligencji ogólnego przeznaczenia na podstawie aktu w sprawie sztucznej inteligencji.

Wydarzenie to, zorganizowane przez Urząd UE ds. Sztucznej Inteligencji, stanowi początek wspólnych wysiłków z udziałem dostawców modeli sztucznej inteligencji ogólnego przeznaczenia, organizacji branżowych, środowisk akademickich i społeczeństwa obywatelskiego, mających na celu stworzenie solidnych ram. Sesja plenarna skupi się na przedstawieniu grup roboczych, harmonogramów i oczekiwanych wyników, w tym wstępnych spostrzeżeń z konsultacji z udziałem wielu zainteresowanych stron, w ramach których zgłoszono prawie 430 uwag.

Przewodniczący i wiceprzewodniczący odgrywają kluczową rolę w kształtowaniu pierwszego ogólnego kodeksu postępowania w zakresie sztucznej inteligencji. Eksperci ci, wywodzący się z różnych środowisk w dziedzinie informatyki, zarządzania sztuczną inteligencją i prawa, będą kierować procesem w czterech grupach roboczych. Ich przywództwo ma kluczowe znaczenie dla opracowywania i udoskonalania projektów dotyczących przejrzystości, praw autorskich, oceny ryzyka, środków ograniczających ryzyko oraz wewnętrznego zarządzania ryzykiem i zarządzania dostawcami sztucznej inteligencji ogólnego przeznaczenia. W kryteriach wyboru priorytetowo traktowano wiedzę fachową, niezależność oraz zapewnienie różnorodności geograficznej i równowagi płci. 

Na przykład współprzewodniczący grupy roboczej ds. przejrzystości i praw autorskich wnoszą unikalną kombinację wiedzy fachowej. Jeden z nich ma głębokie doświadczenie w europejskim prawie autorskim, z ponad 25-letnim doświadczeniem, podczas gdy drugi oferuje rozległą wiedzę na temat przejrzystości sztucznej inteligencji, popartą doktoratem z MIT i przywództwem w badaniach nad sztuczną inteligencją ukierunkowanych na człowieka.

Różnorodność specjalizacji przewodniczących zapewnia kompleksową uwagę na względy techniczne, prawne i związane z zarządzaniem zgodnie z aktualnym stanem wiedzy.

Przewodniczący i wiceprzewodniczący podsumują wkład uczestników i poprowadzą iteracyjne dyskusje w okresie od października 2024 r. do kwietnia 2025 r., zapewniając kompleksowy i skuteczny kodeks postępowania. Ostateczny projekt ma zostać przedstawiony na końcowej sesji plenarnej do kwietnia 2025 r.

Lista przewodniczących i wiceprzewodniczących

Grupa robocza 1: Przejrzystość i przepisy dotyczące praw autorskich

 

Współprzewodniczący (przejrzystość): Nuria Oliver (Hiszpania)

Nuria Oliver jest dyrektorem Fundacji ELLIS Alicante i posiada tytuł doktora w dziedzinie sztucznej inteligencji z MIT. Ma 25-letnie doświadczenie badawcze w dziedzinie sztucznej inteligencji ukierunkowanej na człowieka, obejmujące środowisko akademickie, przemysł i organizacje pozarządowe. Nuria jest niezależnym członkiem zarządu hiszpańskiej agencji nadzorującej sztuczną inteligencję, członkiem międzynarodowego eksperckiego panelu doradczego ds. raportu naukowego na temat bezpieczeństwa zaawansowanej sztucznej inteligencji oraz członkiem IEEE, ACM, EurAI i ELLIS. Jest również współzałożycielką i wiceprezesem ELLIS.

Współprzewodniczący (prawo autorskie): Alexander Peukert (Niemcy)

Alexander Peukert jest profesorem prawa cywilnego, handlowego i informacyjnego na Uniwersytecie Goethego we Frankfurcie nad Menem. Z ponad 25-letnim doświadczeniem jest wiodącym ekspertem w zakresie europejskiego i międzynarodowego prawa autorskiego, koncentrując się ostatnio na skrzyżowaniu prawa autorskiego i sztucznej inteligencji. Od 2004 r. jest członkiem Komitetu Ekspertów ds. Prawa Autorskiego Niemieckiego Stowarzyszenia Ochrony Własności Intelektualnej (GRUR) oraz członkiem-założycielem Europejskiego Towarzystwa Praw Autorskich, któremu przewodniczył w latach 2023/2024.

Wiceprzewodniczący (przejrzystość): Rishi Bommasani (Stany Zjednoczone)

Rishi Bommasani jest liderem społeczeństwa w Stanford Center for Research on Models w ramach Stanford Institute for Human-Centered AI. Bada wpływ społeczny modeli sztucznej inteligencji ogólnego przeznaczenia, zwiększając rolę środowisk akademickich w polityce opartej na dowodach. Jego prace zdobyły kilka wyróżnień naukowych i były prezentowane w Atlantic, Euractiv, Nature, New York Times, Reuters, Science, Wall Street Journal i Washington Post.

Wiceprzewodniczący (prawo autorskie): Céline Castets-Renard (Francja)

Céline Castets-Renard jest profesorem prawa na Wydziale Prawa Cywilnego Uniwersytetu w Ottawie oraz kierownikiem katedry badawczej odpowiedzialnej za sztuczną inteligencję w kontekście globalnym. Jej badania koncentrują się na regulacji i zarządzaniu technologiami cyfrowymi i sztuczną inteligencją z perspektywy prawa międzynarodowego i porównawczego. Jest ekspertem w zakresie prawa AI, prawa danych osobowych i prywatności, cyfrowego prawa autorskiego oraz regulacji platform. Bada również wpływ technologii na prawa człowieka, sprawiedliwość i sprawiedliwość społeczną.

Grupa robocza 2: Identyfikacja i ocena ryzyka, w tym oceny

Przewodnicząca: Matthias Samwald (Austria)

Matthias Samwald jest profesorem nadzwyczajnym w Instytucie Sztucznej Inteligencji na Uniwersytecie Medycznym w Wiedniu. Jego badania koncentrują się na wykorzystaniu sztucznej inteligencji do przyspieszenia badań naukowych, przekształcenia medycyny i przyczynienia się do dobrostanu człowieka, przy jednoczesnym zapewnieniu, że te systemy sztucznej inteligencji są bezpieczne i niezawodne w ich działaniu.

Wiceprzewodniczący: Marta Ziosi (Włochy)

Marta Ziosi jest doktorantką w Oxford Martin AI Governance Initiative, gdzie jej badania koncentrują się na standardach dla pionierskiej sztucznej inteligencji. Podczas studiów doktoranckich w Oxford Internet Institute pracowała nad algorytmicznymi uprzedzeniami i współpracowała przy projektach na styku polityki sztucznej inteligencji, sprawiedliwości i standardów dla dużych modeli językowych. Jest również założycielką organizacji non-profit, której celem jest zapewnienie, że technologia służy dobru publicznemu.

Wiceprzewodniczący: Aleksander Zacherl (Niemcy)

Alexander Zacherl jest niezależnym projektantem systemów. Na początku istnienia brytyjskiego Instytutu Bezpieczeństwa Sztucznej Inteligencji pomógł zbudować zespół badań technicznych i zespół ds. oceny systemów autonomicznych. Wcześniej pracował w DeepMind nad symulacjami i środowiskami interakcji międzyludzkich dla wieloagentowych badań nad uczeniem się wzmocnienia.

Grupa robocza 3: Techniczna redukcja ryzyka

Przewodnicząca: Yoshua Bengio (Kanada)

Uznawany na całym świecie za jednego z wiodących ekspertów w dziedzinie sztucznej inteligencji, Yoshua Bengio jest najbardziej znany ze swojej pionierskiej pracy w dziedzinie głębokiego uczenia się, zdobywając nagrodę A.M. Turinga w 2018 r., „Nagrodę Nobla w dziedzinie informatyki” wraz z Geoffreyem Hintonem i Yannem LeCunem. Jest profesorem zwyczajnym na Université de Montréal oraz założycielem i dyrektorem naukowym Mila – Quebec AI Institute. Współkieruje programem CIFAR Learning in Machines & Brains jako Senior Fellow i pełni funkcję Dyrektora Naukowego IVADO.

Wiceprzewodniczący: Daniel Privitera (Włochy i Niemcy)
Daniel Privitera jest założycielem i dyrektorem wykonawczym KIRA Center, niezależnej organizacji non-profit zajmującej się polityką AI z siedzibą w Berlinie. Jest głównym autorem międzynarodowego raportu naukowego na temat bezpieczeństwa zaawansowanej sztucznej inteligencji, który jest współtworzony przez 75 międzynarodowych ekspertów w dziedzinie sztucznej inteligencji i wspierany przez 30 wiodących krajów zajmujących się sztuczną inteligencją, ONZ i UE.

Wiceprzewodniczący: Nitarshan Rajkumar (Kanada)
Nitarshan Rajkumar jest doktorantem badającym sztuczną inteligencję na Uniwersytecie Cambridge. Wcześniej był starszym doradcą politycznym brytyjskiego sekretarza stanu ds. nauki, innowacji i technologii, gdzie był współzałożycielem AI Safety Institute i współtworzył AI Safety Summit oraz brytyjski program superkomputerowy. Wcześniej był badaczem w Mila w Montrealu i inżynierem oprogramowania w startupach w San Francisco.

Grupa robocza 4: Wewnętrzne zarządzanie ryzykiem i zarządzanie dostawcami sztucznej inteligencji ogólnego przeznaczenia

Przewodnicząca: Marietje Schaake (Niderlandy)
Marietje Schaake jest stypendystką Stanford’s Cyber Policy Center oraz Institute for Human-Centred AI. Jest felietonistką Financial Times i zasiada w wielu radach non-profit, a także w Organie Doradczym Wysokiego Szczebla ONZ ds. W latach 2009-2019 była posłanką do Parlamentu Europejskiego, gdzie zajmowała się polityką handlową, zagraniczną i technologiczną. 

Wiceprzewodniczący: Markus Anderljung (Szwecja)
Markus Anderljung jest dyrektorem ds. polityki i badań w Centrum Zarządzania Sztuczną Inteligencją. Jego badania koncentrują się na regulacji sztucznej inteligencji, odpowiedzialnym rozwoju najnowocześniejszych technologii, zarządzaniu obliczeniami, obok innych tematów. Jest również adiunktem w Center for a New American Security oraz członkiem grupy ekspertów OECD ds. przyszłości AI w Obserwatorium Polityki w zakresie Sztucznej Inteligencji. Wcześniej został oddelegowany do gabinetu brytyjskiego jako starszy specjalista ds. polityki, zastępca dyrektora GovAI i starszy konsultant w EY Sweden.

Wiceprzewodniczący: Anka Reuel (Niemcy)
Anka Reuel jest doktorantką informatyki na Uniwersytecie Stanforda. Jej badania koncentrują się na zarządzaniu technicznym sztuczną inteligencją. Prowadzi badania w Stanford Trustworthy AI Research Lab oraz Stanford Intelligent Systems Laboratory. Jest również stypendystką ds. geopolityki i technologii w Belfer Center w Harvard Kennedy School.