Sora 2 van OpenAI – machtsinstrument of bewijsprobleem?

OpenAI heeft recent zijn nieuwste video-AI aangekondigd: Sora 2 — een geavanceerd model dat gebruikers in staat stelt hyperrealistische korte video’s te genereren op basis van tekstprompts, beelden en “cameo’s” (waarbij je jezelf of anderen in de scène kunt plaatsen).

De introductie van Sora 2 is zonder meer technologisch indrukwekkend: realisme, audio-synchronisatie, verbeterde besturing van scènes en natuurkundige coherentie behoren tot de nieuwe troeven. Maar de maatschappelijke en juridische implicaties zijn aanzienlijk. 

Kritiekpunten zijn onder meer:

  • Misbruik voor deepfakes / identiteitsnabootsing – de mogelijkheid om personen in scènes te plaatsen creëert risico’s op ongeautoriseerde beelden of bewerkte weergaven waarin de werkelijkheid wordt vervormd.
  • Copyright en intellectuele eigendom – in de eerste fase stond het genereren van video’s met auteursrechtelijk beschermd materiaal standaard toe, tenzij rechtenhouders bezwaar maken. OpenAI kondigde later aan dat rechtenhouders meer “control” gaan krijgen.
  • Betrouwbaarheid van bewijs – als video’s eenvoudig en snel gegenereerd kunnen worden, rijst de vraag in hoeverre zij als bewijs in rechte kunnen dienen, of dat tegenbewijs mogelijk wordt via manipulatie.

De rol van de deurwaarder: bewijskracht tegen digitale verleiding

Hier komt het juridische belang in het vizier: in een tijd waarin beelden – zelfs schijnbaar ‘authentieke’ video’s – niet meer vanzelfsprekend betrouwbaar zijn, blijft de gerechtsdeurwaarder een onmisbare schakel bij het vastleggen van feiten.

Een deurwaardersconstatering, vastgelegd in een proces-verbaal van constatering, geniet in juridische procedures speciale status: het wordt geacht een neutrale, onafhankelijke en ambtelijke waarneming weer te geven, die voor de rechter een hoge mate van geloofwaardigheid heeft.

Indien een partij betwist dat een video-authenticiteit klopt (bijvoorbeeld door te stellen dat een beeld is gemanipuleerd via AI), kan de constatering van een deurwaarder als objectieve tegenhanger dienen:

  • De constatering legt op een bepaald moment feiten vast (bijv. de doorgave van een uiting, de aanwezigheid van een screenshot op een website, de staat van een object).
  • Die vastlegging is in beginsel onafhankelijk van de partijen en is moeilijk te betwisten zonder tegenbewijs.
  • In situaties waar digitale manipulatie mogelijk is — zoals bij AI-gegenereerde video’s — biedt de constatering extra zekerheid: zij kan dienen als ankerplaats in de bewijsvoering, waar “AI-bewijsmateriaal” louter op basis van prompt of reconstructie betwistbaar is.

Je kunt dit zien tegen de achtergrond van eerdere waarschuwingen uit de vakliteratuur: digitale beelden en audio kunnen gemakkelijk worden vervalst, en zelfs detectietechnieken (bijv. voor deepfakes) blijken nog kwetsbaar, zeker als AI-modellen steeds verfijnder worden.

Conclusie: bewijszekerheid in het AI-tijdperk

De introductie van Sora 2 markeert een nieuwe fase waarin het onderscheid tussen “echte” en “kunstmatig gecreëerde” video’s steeds moeilijker wordt. Voor juridische professionals, ondernemingen of particulieren met belang bij betrouwbare bewijsvoering, vormt dit een duidelijke signaal: het objectief en ambtelijk vastleggen van feiten – door een gerechtsdeurwaarder — is niet langer een luxekeuze, maar een strategisch essentieel instrument.

Terug naar overzicht