
iStock Photo Getty Images +
Denne milepæl markerer et betydeligt fremskridt med hensyn til at fremme globalt samarbejde om AI-sikkerhed. Mødet er organiseret omkring tre spor.
I spor 1 vil netværket drøfte initiativer til at afbøde de risici, der er forbundet med syntetisk AI-genereret indhold, med fokus på gennemsigtighedsteknikker for digitalt indhold samt sikkerhedsforanstaltninger på AI-model- og systemniveau for at reducere og forebygge skadelige eller ulovlige syntetiske output såsom materiale, der viser seksuelt misbrug af børn. Deltagerne vil drøfte principper og indledende praksis. Selv om de tekniske metoder stadig er under udvikling, kan bedste praksis fremme interessenternes tilpasning til gennemsigtighed og afbødning af risici som følge af syntetisk indhold og vise tillid til målgrupperne. Supplerende tilgange - herunder normative, uddannelsesmæssige, lovgivningsmæssige og markedsbaserede foranstaltninger - er afgørende.
Input fra interessenter på mødet vil finpudse dette arbejde og bane vejen for drøftelser på topmødet om kunstig intelligens i Paris i februar 2025.
Spor 2 vil fokusere på evaluering og afprøvning af grundmodeller. Målet er at fremme en fælles forståelse af, hvordan der foretages evalueringer for i sidste ende at nå frem til en tilstand af supplerende testning blandt netværkets medlemmer. AI Safety Institutes vil fremlægge en prototype af en fælles testøvelse, som vil danne grundlag for drøftelser om, hvordan dette kan udvides og udvikles som forberedelse til AI Action-topmødet i Frankrig.
På spor 3 vil netværket godkende en fælles erklæring om risikovurdering af avancerede AI-systemer. Dette tekniske dokument, der koordineres af EU's AI-kontor med Det Forenede Kongerige, skitserer den videnskabelige udvikling og praksis inden for risikovurdering. Den har til formål at etablere et fælles teknisk grundlag for at støtte netværkets igangværende bestræbelser på at skabe omfattende og effektive risikovurderingsstrategier for avancerede AI-systemer.
Den fælles erklæring indfører seks centrale aspekter, der er afgørende for en solid risikovurdering:
- Indsigt, der kan handles på
- Gennemsigtighed
- Omfattende anvendelsesområde
- Inddragelse af flere interessenter
- Iterative processer
- reproducerbarhed
På spor 3 vil det blive drøftet, hvordan dette arbejde kan fremmes yderligere frem til AI-handlingsplanstopmødet i Frankrig i februar.
Find yderligere oplysninger om det internationale netværk af AI-sikkerhedsinstitutter.