Bletchley-verklaring: eerste internationale verklaring over veilige ontwikkeling van artificiële intelligentie (AI)

Published on 10 November 2023

Op 1 november hebben op de ‘AI Safety Summit’ de Verenigde Staten, China, 26 andere landen en de EU de Bletchley-verklaring ondertekend over de veilige ontwikkeling van de krachtigste kunstmatige intelligentie (AI). De verklaring erkent de potentiële ernstige (zelfs ‘catastrofale’) risico's van AI en benadrukt de dringende noodzaak om deze risico's collectief te begrijpen en te beheren.

Hoewel de top in Bletchley Park geen basis legt voor internationale wetgeving, is het doel om een pad uit te stippelen voor internationale samenwerking rond veilige en verantwoorde ontwikkeling en inzet van AI.

Het initiatief moet zich onderscheiden van allerlei andere internationale samenwerkingsverbanden rond AI, door zich enkel te focussen op de meest gevaarlijke risico’s die verbonden zijn aan het gebruik van geavanceerde AI-technologie.

Overzicht van de belangrijkste beslissingen van de Bletchley-verklaring

Op 6 november gaf de Britse overheid in Brussel een debrief over de uitkomst van de top, gevolgd door een panelgesprek. Hieronder een overzicht van de debrief.

Het Verenigd Koninkrijk is heel tevreden over de Summit

  • 28 landen (zonder België, dat niet was uitgenodigd) én de EU zijn rond de tafel gebracht, met inbegrip van China
  • De belangrijkste vertegenwoordigers van de industrie, en heel wat middenveldorganisaties waren ook aanwezig
  • Alle aanwezigen delen het basisbegrip dat AI heel belangrijke risico’s meedraagt (de zogenaamde catastrofale risico’s)
  • Er werd een gezamenlijke verklaring ondertekend

De AI Safety Summit is slechts het begin

Het was nooit de bedoeling van het VK om het probleem van AI en catastrofale risico’s met één Top op te lossen. Wél hoopte de Britten daarmee een wereldwijde, regelmatige conversatie te lanceren. Missie geslaagd. De AI Safety Summit wordt op duurzame wijze geïnstitutionaliseerd, en dat op drie manieren:

  1. Er zal om de zes maanden een AI Safety Summit plaatsvinden. Die zal afwisselen tussen een virtuele versie, en vervolgens weer een fysieke bijeenkomst. De volgende Summit is daarom virtueel, en zal door Zuid-Korea georganiseerd worden. De Summit daarna vindt dan weer fysiek in Parijs plaats.
  2. Naar aanleiding van elke Summit wordt een ‘State of the Science’-rapport gepubliceerd. Dat moet een synthese maken over de wetenschappelijke stand van zaken rond de meest geavanceerde AI-systemen en de risico’s die eraan verbonden zijn. Interessant detail is dat UK zegt dat ze de inspiratie daarvoor haalden bij de ‘State of the European Union’-speech van Ursula von der Leyen’ in september 2023, die het had over de nood aan een soort van “IPCC-rapport” voor AI.
  3. In de nasleep van de Summit hebben het VK en de VS de oprichting van nationale AI Safety Institutes aangekondigd. Dit zijn overheidsentiteiten die de meest geavanceerde AI systemen zullen monitoren en evalueren. In het kader van AI Act onderhandelingen, zouden dergelijke verantwoordelijkheden ook in de schoot van de Europese Commissie of een nog op te richten Europese ‘AI Office’ gelegd kunnen worden.

De AI Safety Summit zal op termijn breder gaan.

Iedereen is zich bewust van de proliferatie van AI-initiatieven wereldwijd (de Europese Unie en haar AI Act, de OESO General Principles on AI, Het Verdrag rond Artificiële Intelligentie van de Raad van Europa, de G7 en de Hiroshima Principes, de Verenigde Naties en hun High-Level Adviesorgaan over AI, ….). Het VK benadrukt de nood aan complementariteit, en ziet de AI Safety Summit op (lange) termijn wel een plaats vinden binnen een VN-kader.

Er was niet enkel consensus

Hoewel iedereen het in brede lijnen met elkaar eens was,  was  er tijdens sommige sessies ook belangrijke onenigheid. In het bijzonder wekte de discussie rond open source heel wat gevoelens op. In heel brede lijnen zet die discussie twee kampen tegenover elkaar:

  • Langs één zijde zijn er een aantal grote techbedrijven én heel wat middenveldorganisaties die zeggen dat de krachtigste AI systemen best achter gesloten deuren moeten blijven. Ze zijn te gevaarlijk om open te delen met iedereen. Gebruikers en klanten moeten er wel mee kunnen interageren (zoals je dat bv. met ChatGPT kan doen), maar de eigenlijke code en parameters die achter het model zitten, blijven geheim. Anderen kunnen die niet zomaar downloaden om er zelf toepassingen van te maken, en eventueel op allerlei manieren te misbruiken.
  • Aan de andere kant van het argument vinden we Meta, kleinere AI-bedrijven, andere middenveldorganisaties en een aantal landen die die redenering omdraaien: Als je AI systemen als open source software publiek beschikbaar maakt, kunnen er duizenden onderzoekers naar kijken, fouten vinden, en het allemaal veiliger maken. Als het achter gesloten deuren gebeurt, weet niemand wat er allemaal aan de gang is. Dit kamp wijst graag naar software zoals het besturingssysteem Linux dat open source beschikbaar is, en net daarom zo veilig is dat het de ruggengraat van de internet is geworden.
  • Beiden kampen verwijten elkaar dat ze eigenlijk economische motieven najagen. Zo zou het eerste kamp liever alles achter gesloten deuren houden om hun eigen leidende positie veilig te stellen. Het tweede kamp zou dan daarentegen graag alles open maken om hun eigen achterstand sneller in te halen.
David Scheere
Beleidsmedewerker
Afdeling Ondernemen en Innoveren

This may interest you

03 November 2023

Artificiële intelligentie en de uitdagingen voor het beleid

Op 31 oktober 2023 organiseerde UNU-CRIS, in samenwerking met ons Departement EWI, te Brussel een ‘high-level lecture and academic panel’ met actieve deelname van de rector van de ‘United Nations University’, en tevens AI-expert professor, Tshilidzi Marwala.
27 September 2023

Flanders Looks ahead to the Tenth European Framework Programme for Research and Innovation

Although Horizon Europe (= the ninth European Framework Programme for Research and Innovation) is only halfway through, preparations for its successor have already begun. Therefore, in Flanders, the Working Group 12 of the Flemish Stakeholder Platform for European Programmes (VEP), has drafted a reflection paper on the future FP10. A similar exercise was done in the past for the current Horizon Europe programme.
07 March 2021

Explore Flanders Blue Research and Innovation system

A new publication 'Gearing up our blue knowledge - Tackling ocean challenges in the UN Decade of Ocean Science' invites you to explore the Flanders Blue Research and Innovation system.

EN - Blijf wekelijks op de hoogte

Wij brengen u wekelijks de laatste weetjes, publicaties en cijfers over economie, wetenschap en innovatie in Vlaanderen in uw mailbox.

Nieuwsgierig naar onze voorbije nieuwsbrieven? Bekijk hier ons archief.