

Eind maart 2026 werd bekend dat GitHub een functie van Copilot, de AI-assistent voor softwareontwikkeling, snel moest terugdraaien. De reden: gesponsorde tips verschenen automatisch in pull requests, de plekken waar ontwikkelaars elkaars code beoordelen. Dat was niet de bedoeling, en het werd ook niet gevraagd. De functie trof uitsluitend publieke repositories, dus openbaar toegankelijke code-opslagplaatsen. Privé- en bedrijfsomgevingen bleven buiten schot. Toch toont dit incident iets waar elke kmo-leider die softwareontwikkeling uitbesteedt, even bij moet stilstaan: hoe goed ken je eigenlijk de AI-functies die jouw leverancier stilletjes activeert?
Tweakers meldt dat GitHub een nieuwe Copilot-integratie activeerde die bedoeld was voor pull requests die door Copilot zelf worden aangemaakt. Door een bug doken de gesponsorde tips echter ook op bij gewone pull requests van gewone gebruikers. Meer dan 1,5 miljoen publieke pull requests werden zo beïnvloed. Na forse kritiek vanuit de ontwikkelaarsgemeenschap zette GitHub de functie dezelfde dag nog uit.
De schade bleef beperkt: geen bewezen datalekken, geen financiële schade, en privé-repositories werden niet geraakt. Maar het incident legt wel een patroon bloot. AI-functies worden uitgerold, soms automatisch, soms zonder expliciete communicatie richting gebruikers. En wanneer een bug meespeelt, kan ongewenste of commerciële inhoud opduiken op plekken waar je dat absoluut niet verwacht, zoals in interne code-reviews.
Voor kmo’s die hun softwareontwikkeling geheel of gedeeltelijk uitbesteden, is dit een nuttige wake-upcall. Niet om in paniek te schieten, want het risico voor privé- en bedrijfsomgevingen was in dit geval laag. Wel om te beseffen dat je als opdrachtgever vragen mag stellen over welke AI-functies actief zijn, hoe die worden beheerd, en of je daar zelf controle over hebt.
Als jouw bedrijf softwareprojecten uitbesteedt aan een ontwikkelaar of een extern team, dan werken die mensen waarschijnlijk met platforms zoals GitHub. En op die platforms worden steeds meer AI-functies standaard ingeschakeld, soms met een opt-out die je eerst moet kennen om die te kunnen gebruiken.
De directe operationele risico’s van dit specifieke incident waren laag voor bedrijfsomgevingen. Maar het stelt een bredere vraag die wel degelijk relevant is:
Die vragen gaan verder dan dit ene incident. De EU AI Act, de Europese regelgeving rond artificiële intelligentie die volledig van kracht wordt, vraagt van organisaties steeds meer transparantie over hoe AI wordt ingezet. Ook als je die AI zelf niet rechtstreeks gebruikt, maar wel via een leverancier. Indicaties wijzen erop dat kmo’s die nu al nadenken over AI-gebruik en bijbehorende afspraken, straks een stuk minder aanpassingen moeten doen.

Je hoeft geen IT-expert te zijn om de juiste vragen te stellen. Dit zijn drie dingen die je morgen al kunt aanpakken:
Bij Clear IT bespreken we dit soort vragen regelmatig met klanten die software laten bouwen door externe partijen. Niet omdat het altijd misgaat, maar omdat heldere afspraken vooraf een stuk minder gedoe geven achteraf.
Het gaat er niet om dat je elke technische beslissing zelf neemt. Het gaat erom dat je weet wat er speelt, en dat je bij onverwachte wijzigingen niet voor verrassingen staat.
Het Copilot-incident was snel opgelost en de directe schade voor bedrijfsomgevingen bleef uit. Maar het toont dat AI-functies snel worden uitgerold, soms met bugs, en niet altijd met duidelijke communicatie. Als kmo-leider hoef je geen technische details te kennen. Je moet wel weten of jouw leverancier AI-tools beheert met duidelijke afspraken en of jij daar als opdrachtgever een stem in hebt. Eén gesprek met jouw leverancier kan al veel duidelijkheid geven.
Nee. De functie trof uitsluitend publieke repositories, dus openbaar toegankelijke code-opslagplaatsen. Privé- en bedrijfsomgevingen werden niet geraakt en er zijn geen bevestigde datalekken of financiële schade gemeld. Dit neemt niet weg dat het zinvol is om na te gaan welke AI-functies actief zijn in jouw ontwikkelomgeving.
Niet noodzakelijk. GitHub is een veelgebruikt platform en de functie werd snel teruggedraaid. Het incident is eerder een aanleiding om duidelijke afspraken te maken met jouw leverancier dan om het platform te verlaten. Goede contractafspraken over AI-gebruik zijn relevanter dan het platform zelf.
Vraag minstens dat jouw leverancier nieuwe AI-functies meldt voordat die worden geactiveerd, en dat er een opt-outmogelijkheid is. Voeg ook toe wie verantwoordelijk is als een AI-tool ongewenste inhoud of fouten introduceert in jouw project. Kort en concreet volstaat, een lang juridisch document is niet nodig.
De EU AI Act introduceert nieuwe transparantievereisten die ook voor kmo’s relevant zijn, ook als je AI indirect gebruikt via een leverancier. Hierover is nog geen specifieke Belgische richtlijn voor ontwikkeltools gepubliceerd, maar het is verstandig om nu al na te gaan hoe AI-tools worden ingezet in jouw projecten.