Image

Verdere gevaren en onduidelijkheid rond AI

Artikel
07 januari 2026

De eerste hype-golf rond AI is wat gaan liggen, maar de ontwikkelingen op het vlak van kunstmatige intelligentie gaan voort. Niet alles gaat daarbij zoals moet. Twee voorbeelden in dit artikel.

Grok AI maakt seksuele afbeeldingen, ook van minderjarigen
Grok is de naam van de AI die wordt ontwikkeld door de tech-bedrijf (xAI) van Elon Musk. Deze AI is in staat om geklede mensen op een afbeelding kunstmatig te ontdoen van hun kleren om zo seksuele afbeeldingen te maken van iemand. Het maakt daarbij onvoldoende onderscheid tussen meer- en minderjarig. Zo ging er een ontklede afbeelding rond - gemaakt met AI - van een 14-jarige Amerikaanse actrice. Het riep verontwaardigde reacties op. De EU is een onderzoek gestart. 

Officieel mag Grok dit niet doen. Het staat zelfs in de gebruikersvoorwaarden, maar daar houden mensen zich niet aan. Elon Musk reageert op alle commotie met de opmerking dat de gebruiker zelf verantwoordelijk is voor wat hij of zij met AI doet. 

Er ligt hier een complexe juridische vraagstelling achter die nog niet duidelijk is beantwoord: is de maker verantwoordelijk voor dit soort content? Of is dat de AI en/of het bedrijf erachter dat deze content mogelijk maakt (doordat de programmatuur niet duidelijk blokkeert dat dit niet mag)? 
Daarnaast zegt dit uiteraard nog helemaal niets over de morele waardering van dit soort ontwikkelingen. Het lijkt ons een slechte en zelfs ronduit zondige zaak, dat dit mogelijk is, wie daar ook juridisch voor verantwoordelijk is.

Huwelijk ongeldig door verkeerde trouwbeloften
Een huwelijk werd recent door de Nederlands rechter ongeldig verklaard. De BABS (de Bijzondere Ambtenaar van de Burgerlijke Stand) die het huwelijk sloot, had niet de juiste, wettelijk vereiste formulering gebruikt voor de huwelijkssluiting. Dat was mogelijk omdat het een gelegenheidsambtenaar was. Dat kan namelijk in ons land: er is een mogelijkheid om BABS te worden voor een dag, omdat je als vriend of familielid een echtpaar wil trouwen. 
In dit geval ging er echter iets fout. De betreffende ‘BABS voor een dag’ had de bekende AI ChatGPT gevraagd om te helpen bij de voltrekking, door een tekst aan te leveren. Daardoor werd niet de wettelijk verplichte tekst voorgelezen over het trouw vervullen van alle plichten die door de wet aan de huwelijkse staat verbonden zijn. En dus kon het paar daar ook niet met een duidelijk ‘ja’ op antwoorden. 

Dit incident is wellicht niet rechtstreeks te wijten aan de hulp van ChatGPT. De mens erachter had immers beter moeten weten. Maar ook hier speelt wel weer mee: was het de verantwoordelijkheid van de AI om te wijzen op de genoemde wettelijke verplichting? Heeft de AI meegeholpen of mogelijk gemaakt, dat dit ongeldige huwelijk gesloten werd? Het zijn juridische vragen die wellicht nog beantwoord moeten worden.

Kortom, de omgang met AI is verre van perfect en roept veel morele en juridische vragen op. Maar voor ons als maranatha-christenen ligt er een diepere laag. In een wereld waar AI de grens tussen echt en onecht vervaagt, en waar morele kaders worden overgelaten aan algoritmen, zien we de contouren van de 'laatste dagen' scherper worden. De Bijbel waarschuwt ons voor een tijd van misleiding en wetteloosheid en juist in dit soort voorbeelden, zien we daar weer voorbeelden van.

Om nog extra te overwegen: de afbeelding bovenaan dit artikel is door AI gemaakt op de prompt 'Hoe zou je met een afbeelding weergeven dat AI door mensen foutief wordt gebruikt?' Het geeft op z'n minst te denken...

Bron: Reformatorisch Dagblad en gemeente.nu

Wil je deze content helpen mogelijk te maken? Je kunt ons werk steunen door een gift te geven.