Cientos de participantes asistirán al Plenario de lanzamiento para el desarrollo del primer Código de Prácticas para modelos de IA de propósito general en virtud de la Ley de IA.
Organizado por la Oficina de IA de la UE, este evento marca el comienzo de un esfuerzo de colaboración en el que participan proveedores de modelos de IA de uso general, organizaciones del sector, el mundo académico y la sociedad civil, con el objetivo de elaborar un marco sólido. El Plenario se centrará en esbozar los grupos de trabajo, los plazos y los resultados esperados, incluidas las ideas iniciales de una consulta de múltiples partes interesadas con casi 430 presentaciones.
Los presidentes y vicepresidentes desempeñan un papel fundamental en la configuración del primer Código de prácticas de IA de propósito general. Estos expertos, procedentes de diversos orígenes en ciencias de la computación, gobernanza de la IA y derecho, guiarán el proceso a través de cuatro grupos de trabajo. Su liderazgo es fundamental para desarrollar y perfeccionar borradores que aborden la transparencia, los derechos de autor, la evaluación de riesgos, las medidas de mitigación y la gestión interna de riesgos y la gobernanza de los proveedores de IA de propósito general. Los criterios de selección priorizaron la experiencia, la independencia y la garantía de la diversidad geográfica y el equilibrio de género.
Por ejemplo, los copresidentes del grupo de trabajo sobre transparencia y derechos de autor aportan una combinación única de conocimientos especializados. Uno tiene una profunda experiencia en la ley europea de derechos de autor, con más de 25 años de experiencia, mientras que el otro ofrece un amplio conocimiento en transparencia de IA, respaldado por un doctorado del MIT y liderazgo en investigación de IA centrada en el ser humano.
La diversidad de las especialidades de las cátedras garantiza una atención integral a las consideraciones técnicas, jurídicas y de gobernanza en el estado actual de la técnica.
Los presidentes y vicepresidentes sintetizarán las aportaciones de los participantes y dirigirán debates iterativos entre octubre de 2024 y abril de 2025, garantizando un código de buenas prácticas exhaustivo y eficaz. Se espera que el proyecto final se presente en una sesión plenaria de clausura en abril de 2025.
Lista de presidentes & Vicepresidentes
Grupo de trabajo 1: Transparencia y normas relacionadas con los derechos de autor
Copresidente (Transparencia): Nuria Oliver (España)
Nuria Oliver es directora de la Fundación ELLIS Alicante y doctora en IA por el MIT. Tiene 25 años de experiencia en investigación en IA centrada en el ser humano, que abarca el mundo académico, la industria y las ONG. Nuria es miembro independiente del consejo de administración de la Agencia Española de Supervisión de la IA, miembro del Panel Asesor Internacional de Expertos del Informe Científico sobre la Seguridad de la IA Avanzada, y miembro del IEEE, ACM, EurAI y ELLIS. También es cofundadora y vicepresidenta de ELLIS.
Copresidente (Derecho de autor): Alexander Peukert (Alemania)
Alexander Peukert es profesor de Derecho Civil, Comercial y de la Información en la Universidad Goethe de Frankfurt am Main. Con más de 25 años de experiencia, es un experto líder en derecho de autor europeo e internacional, centrándose recientemente en la intersección de los derechos de autor y la inteligencia artificial. Es miembro del Comité de Expertos en Derecho de Autor de la Asociación Alemana para la Protección de la Propiedad Intelectual (GRUR) desde 2004 y es miembro fundador de la Sociedad Europea de Derecho de Autor, que presidió en 2023/2024.
Vicepresidente (Transparencia): Rishi Bommasani (Estados Unidos)
Rishi Bommasani es el líder de la sociedad en el Centro de Stanford para la Investigación de Modelos como parte del Instituto de Stanford para la IA centrada en el ser humano. Investiga el impacto social de los modelos de IA de propósito general, avanzando el papel de la academia en la política basada en la evidencia. Su trabajo ha ganado varios reconocimientos científicos y ha aparecido en Atlantic, Euractiv, Nature, New York Times, Reuters, Science, Wall Street Journal y Washington Post.
Vicepresidente (Derechos de autor): Céline Castets-Renard (Francia)
Céline Castets-Renard es profesora de derecho completo en la Facultad de Derecho Civil de la Universidad de Ottawa y titular de la cátedra de investigación de IA responsable en un contexto global. Su investigación se centra en la regulación y la gobernanza de las tecnologías digitales y la IA desde una perspectiva de derecho internacional y comparado. Es experta en leyes de IA, datos personales y leyes de privacidad, leyes de derechos de autor digitales y regulación de plataformas. También estudia el impacto de las tecnologías en los derechos humanos, la equidad y la justicia social.
Grupo de trabajo 2: Identificación y evaluación de riesgos, incluidas las evaluaciones
Presidente: Matthias Samwald (Austria)
Matthias Samwald es profesor asociado en el Instituto de Inteligencia Artificial de la Universidad Médica de Viena. Su investigación se centra en aprovechar la IA para acelerar la investigación científica, transformar la medicina y contribuir al bienestar humano, al tiempo que garantiza que estos sistemas de IA sean seguros y confiables en su funcionamiento.
Vicepresidente: Marta Ziosi (Italia)
Marta Ziosi es investigadora postdoctoral en la Oxford Martin AI Governance Initiative, donde su investigación se centra en los estándares para la IA de frontera. Durante su doctorado en el Oxford Internet Institute, trabajó en el sesgo algorítmico y colaboró en proyectos en la intersección de la política de IA, la equidad y los estándares para modelos de lenguaje grandes. También es fundadora de una organización sin fines de lucro dedicada a garantizar que la tecnología sirva al bien público.
Vicepresidente: Alexander Zacherl (Alemania)
Alexander Zacherl es un diseñador de sistemas independiente. Al inicio del Instituto de Seguridad de la IA del Reino Unido, ayudó a construir el equipo de investigación técnica y el equipo de evaluaciones de sistemas autónomos. Anteriormente, trabajó en DeepMind en simulaciones y entornos de interacción humana para la investigación de aprendizaje de refuerzo multiagente.
Grupo de trabajo 3: Mitigación del riesgo técnico
Presidente: Yoshua Bengio (Canadá)
Reconocido mundialmente como uno de los principales expertos en inteligencia artificial, Yoshua Bengio es más conocido por su trabajo pionero en aprendizaje profundo, lo que le valió el Premio A.M. Turing 2018, «el Premio Nobel de Computación», con Geoffrey Hinton y Yann LeCun. Es profesor titular de la Université de Montréal y fundador y director científico del Mila – Quebec AI Institute. Codirige el programa CIFAR Learning in Machines & Brains como Senior Fellow y actúa como Director Científico de IVADO.
Vicepresidente: Daniel Privitera (Italia y Alemania)
Daniel Privitera es el fundador y director ejecutivo del KIRA Center, una organización independiente sin fines de lucro con sede en Berlín. Es el escritor principal del Informe Científico Internacional sobre la Seguridad de la IA Avanzada, coescrito por 75 expertos internacionales en IA y apoyado por 30 países líderes en IA, la ONU y la UE.
Vicepresidente: Nitarshan Rajkumar (Canadá)
Nitarshan Rajkumar es un candidato a doctorado que investiga IA en la Universidad de Cambridge. Anteriormente fue asesor principal de políticas del Secretario de Estado de Ciencia, Innovación y Tecnología del Reino Unido, cargo en el que cofundó el Instituto de Seguridad de la IA y cocreó la Cumbre de Seguridad de la IA y el programa de supercomputación del Reino Unido. Antes de eso, fue investigador en Mila en Montreal e ingeniero de software en startups en San Francisco.
Grupo de Trabajo 4: Gestión interna de riesgos y gobernanza de los proveedores de IA de uso general
Presidente: Marietje Schaake (Países Bajos)
Marietje Schaake es becaria en el Cyber Policy Center de Stanford y en el Institute for Human-Centred AI. Es columnista del Financial Times y trabaja en varias juntas sin fines de lucro, así como en el Órgano Asesor de Alto Nivel de la ONU sobre IA. Entre 2009 y 2019 fue diputada al Parlamento Europeo, donde trabajó en política comercial, exterior y tecnológica.
Vicepresidente: Markus Anderljung (Suecia)
Markus Anderljung es el Director de Política e Investigación del Centro para la Gobernanza de la IA. Su investigación se centra en la regulación de la IA, el desarrollo responsable de vanguardia, la gobernanza informática, junto con otros temas. También es becario adjunto en el Center for a New American Security y miembro del Grupo de Expertos sobre Futuros de la IA del Observatorio de Políticas de IA de la OCDE. Anteriormente fue destinado en comisión de servicios a la Oficina del Gabinete del Reino Unido como especialista principal en políticas, director adjunto de GovAI y consultor principal en EY Suecia.
Vicepresidente: Anka Reuel (Alemania)
Anka Reuel es candidata a doctorado en Ciencias de la Computación en la Universidad de Stanford. Su investigación se centra en la gobernanza técnica de la IA. Realiza investigaciones en el Stanford Trustworthy AI Research Lab y el Stanford Intelligent Systems Laboratory. También es becaria en geopolítica y tecnología en el Centro Belfer de la Escuela Kennedy de Harvard.