Specialist in digitale netwerkverbindingen
Maatwerk & installatie op aanvraag
Artikelen leverbaar uit voorraad en back to back
Vandaag besteld, morgen geleverd

4 Europese wetten die belangrijk zijn voor cybersecurity  


1. Dora: voor de financiële sector 

Dora staat voor de Digital Operational Resilience Act. Deze wet richt zich vooral op de financiële sector. De Europese regelgeving zou de operationele weerbaarheid van financiële instellingen moeten versterken. Deze sector is natuurlijk al behoorlijk streng gereguleerd, maar toch blijven er nieuwe wetten bij komen, zeker vanuit de EU. De wet heeft niet alleen betrekking op de financiële sector, maar ook op third-party-ict leveranciers, zeker als het gaat om cloud computing die kritieke functionaliteiten ondersteunen.  

2. NIS2: Een van de belangrijkste Europese wetten omtrent cybersecurity!

De NIS-2 richtlijn draait vooral om het verbeteren van de digitale en economische weerbaarheid van Europese lidstaten. Er zijn achttien sectoren waarop de NIS-2 richtlijn impact zal hebben en hij draait vooral om maatregelen op het gebied van risicomanagement rondom cybersecurity en het rapporteren van incidenten op dit gebied. Bedrijven hebben nog wel eens de neiging om cybersecurity incidenten niet te melden, omdat ze bang zijn dat dit hun naam kan schaden. Maar het rapporteren van incidenten is juist een belangrijke databron om dit soort incidenten in de toekomst te voorkomen! 

3. EU Cloud Certification Scheme  

De EU Cloud Certification Scheme is een raamwerk voor het certifceren van de digitale beveiliging van aanbieders van clouddiensten. De Eucs is een onderdeel van de Cybersecurity Act of CSA uit 2019. De schema’s waar deze richtlijn gebruik van maakt, zijn niet verplicht, maar de kans is wel erg aanwezig dat ze in de toekomst wel verplicht worden.

4. Cyber Resilience Act: Een van de Europese wetten voor cybersecurity van producten

Deze EU-regelgeving is voornamelijk gericht op hardware- en softwareproducten. Hij draait dus niet om de digitale weerbaarheid van organisaties, maar juist om producten die organisaties gebruiken. De Cyber Resilience Act stelt eisen aan de cyberveiligheid van digitale producten die men in de EU verkoopt, zoals software en iot-apparaten. Deze eisen zijn bindend, dus alle producten dienen hieraan te voldoen, geen uitzonderingen. Alle producten die rechtstreek of indirect worden gekoppeld aan een netwerk vallen onder deze regelgeving! 


Wat voegt ChatGPT Search toe om te concurreren met Google?

ChatGPT werd natuurlijk al langer gebruikt om op een vergelijkbare manier te zoeken als dat we op Google zouden doen. De mogelijkheden waren hierin echter nog beperkt. De zoekfunctie gaf bijvoorbeeld nog geen links naar externe bronnen en de zoekresultaten werden alleen weergegeven in tekst. ChatGPT Search geeft niet alleen antwoord in tekst, maar ook met links naar externe bronnen die relevant zijn voor jouw vraag en waar mogelijk zelfs foto’s, afbeeldingen en visuele data, bijvoorbeeld in de vorm van grafieken of tabellen. Dit maakt de applicatie al een heel wat grotere concurrent voor Google dan hij voorheen was.

ChatGPT Search is een AI-chatbot met bronvermelding

ChatGPT heeft nu dus daadwerkelijk meerwaarde ten opzichte van Google, net als de AI-bot Perplexity. Je krijgt immers niet alleen een antwoord op je vraag, maar ook een hele bronvermelding met diverse links, zodat je kunt checken of het antwoord ook daadwerkelijk klopt. Dat lost al een belangrijk probleem op dat men heeft met het gebruik van ChatGPT, namelijk dat je nooit zeker weet of het antwoord dat hij geeft wel klopt en waar hij de info vandaan haalt. OpenAI vertelde daarnaast onlangs dat ze in zee zijn gegaan met een aantal bedrijven om up-to-date informatie te kunnen geven over onderwerpen zoals het weer, sportuitslagen, locaties en het nieuws.

Volgens OpenAI is hun zoekfunctie nu klaar voor het grote publiek, maar wanneer kunnen we dan allemaal gebruikmaken van ChatGPT Search? In principe vanaf nu! Je kunt ChatGPT zelf als je standaard zoekmachine instellen als je wil, in plaats van Google. In de Google Chrome browser kun je hier een extensie voor installeren. De zoekfunctie komt naar de website van ChatGPT en alle apps. Stond je op de wachtlijst voor ChatGPT Search of heb je ChatGPT Plus- of Teamaccount, dan kun je meteen gebruikmaken van de nieuwe functie. Heb je een Enterprise of Edu-account, dan wordt de functie ergens in de komende weken beschikbaar voor jou. Als gratis gebruiker moet je nog een paar maanden wachten, maar uiteindelijk kan iedereen dus gebruikmaken van ChatGPT Search in plaats van Google als je wil!


Ransomware is en blijft een van de grootste cyberbedreigingen  

Ransomware is al jaren een grote bedreiging, maar ook nu blijft dit een groot risico. Het aantal gevallen waarin mensen slachtoffer worden van ransomware is niet per se gestegen, maar cybercriminelen hebben wel nieuwe manieren gevonden om mensen hiermee op te lichten. Criminelen combineren ransomware met data-exfiltratie en dreigen vervolgens om gevoelige informatie openbaar te maken. Voor bedrijven die werken met gevoelige data is het nu dus extra belangrijk om te zorgen voor een goede beveiliging van hun systemen. Hackers misbruiken ook steeds vaker legitieme tools binnen systemen om onder de radar te blijven. Het wordt dus steeds lastiger om hen op te sporen.

Social engineering wordt inventiever 

Social engineering blijft ook vaak voorkomen. Phishing is één van de meest voorkomende vormen van social engineering. Vooral bedrijven hebben hier steeds meer last van, want de nepmails zijn steeds lastiger van echt te onderscheiden. Cybercriminelen gebruiken vandaag de dag AI om de e-mails er zo echt mogelijk uit te laten zien. Via de e-mails proberen ze toegang te krijgen tot bedrijfsgegevens of betalingen. Als bedrijf is het dus verstandig om je personeel scherp te houden op het filteren van nep e-mails. Zo voorkom je een hoop ellende! 

Malware is steeds lastiger te detecteren 

Malware is natuurlijk ook niet per se nieuw op het gebied van cybercriminaliteit. Wel is het steeds lastiger te detecteren, wat het gevaar uiteraard groter maakt. Geavanceerde cybercriminelen bieden zelfs voortaan malware-as-a-service aan. Criminelen die minder technisch zijn, kunnen op die manier toch eenvoudig aanvallen lanceren op bedrijven. Malware wordt daarnaast steeds slimmer en dus beter in het ontwijken van detectie. Hiervoor gebruikt men polyforme technieken, wat ervoor zorgt dat de malware van vorm kan veranderen om antivirussoftware te omzeilen.  

Het manipuleren van informatie met AI is één van de grootste nieuwe cyberbedreigingen

AI heeft helaas een hoop deuren geopend voor cybercriminelen. Het is makkelijker geworden om mensen te manipuleren en voor te liegen door informatie te manipuleren met de hulp van kunstmatige intelligentie. Zo is het bijvoorbeeld mogelijk om iemands stem na te bootsen met AI. Als jij denkt dat je aan de telefoon bent met een familielid of goede vriend die je om geld vraagt, kan dit zomaar een cybercrimineel zijn. Daarnaast wordt er een hoop desinformatie verspreid om de standpunten en denkwijzen van mensen te manipuleren met behulp van AI. Krijg jij een verdacht telefoontje van iemand die je denkt te kennen? Wees waakzaam en ga niet overal te snel in mee! 

Ddos-aanvallen zijn een nachtmerrie voor bedrijven  

Een Ddos-aanval is altijd iets geweest dat ieder bedrijf vreest, maar inmiddels is dit risico een stuk groter geworden dan het ooit was. Het is de dreiging die het meest gerapporteerd wordt, zelfs meer dan ransomware. Ook hier valt het op dat cybercriminelen steeds vaker aanbieden Ddos-aanvallen uit te voeren voor anderen tegen betaling. Hierdoor wordt het risico op grootschalige aanvallen een stuk groter. Dit maakt Ddos-aanvallen momenteel een van de grootste cyberbedreigingen

Datalekken en aanval op toeleveringsketens  

Ten slotte neemt de dreiging van datalekken enorm toe dit jaar. Aanvallers gaan namelijk veel gerichter te werk hierin. Aanvallers leggen vaak ook meer druk op bedrijven, bijvoorbeeld door te dreigen met het openbaar maken van bepaalde data. Hierdoor doen bedrijven minder snel aangifte bij de politie als er sprake is van een cyberaanval of datalek. Cybercriminelen kiezen er ook steeds vaker voor om bedrijven aan te vallen via hun toeleveringsketen. Dit doen ze bijvoorbeeld door het vervalsen van e-mails van een leverancier, waardoor ze meteen kans maken binnen het hele netwerk van die leverancier.  

Conclusie: Let op met de grootste cyberbedreigingen van dit moment

Het afgelopen jaar zijn er dus niet zozeer nieuwe manieren van cybercriminaliteit bij gekomen. De bestaande dreigingen zijn in plaats daarvan groter geworden door nieuwe technieken en verfijning van technieken. Hierdoor zijn aanvallen moeilijker te detecteren en zijn dreigingen ook lastiger te herkennen. Door de snelle veranderingen op het gebied van cybercriminaliteit is het voor ieder bedrijf belangrijk om op de hoogte te blijven van de huidige dreigingen en passende maatregelen te nemen. Je kunt nooit te voorzichtig zijn met de grootste cyberbedreigingen van dit moment! 


Waarschuwing van de AP 

De Autoriteit Persoonsgegevens (AP) wijst in het ‘Sectorbeleid Overheid’ op dit gevaar dat overheden momenteel lopen. Dat gaat niet alleen om het gevaar van te afhankelijk zijn van een beheerder, maar ook alle ontwikkelingen die er bij de overheid plaatsvinden op het gebied van privacy. Het lijkt er voor het volk regelmatig op dat overheidsinstanties nog steeds worstelen met het voldoen aan de privacywetgeving. Hier worden ze nog wel eens voor op hun vingers getikt door de AP. Een van de bezwaren is dat wanneer de AP zwakke punten ontdekt in de systemen van overheidsinstanties, het vaak te lang duurt om dit aan te passen. Redenen hiervoor zijn verouderde IT-systemen, een gebrek aan kennis, onvoldoende prioritering of zelfs een combinatie van al deze zaken. Hierdoor duurt het soms veel te lang voordat datalekken of gelijksoortige problemen opgelost worden.  

Een hoop kennis ontbreekt bij de overheid  

Het grootste probleem is dus eigenlijk een groot kennistekort bij overheidsinstanties. Hierdoor duurt het te lang voordat verouderde systemen worden vervangen en voordat problemen worden opgelost. Ook de kennis van de privacywet is nog vaak niet voldoende aanwezig, met name bij bestuurders. Vinden er overtredingen plaats van de AVG, dan is dit vaak een gevolg van een gebrek aan kennis. De AP uitte onlangs nog de zorgen over de naleving van de AVG bij de Belastingdienst. Om die reden neemt de autoriteit deze instantie de komende tijd onder een vergrootglas.  

De impact van generatieve AI op de naleving van de AVG 

Helaas zijn er nog steeds veel overheidsinstanties die denken dat ze niet alles uit hoeven te zoeken op het gebied van privacy. De AP maakt zich nu grote zorgen om de impact die generatieve AI gaat hebben op de naleving van de AVG bij de overheid. Veel gemeenten gaven al eerder aan dat ze hiermee willen gaan experimenteren, maar dit kan grote gevolgen hebben. Zeker aangezien veel gemeentes nalatig zijn in onderzoek doen voordat ze gaan experimenteren.  


Hype rondom kunstmatige intelligentie  

Veel techbedrijven beweren momenteel dat kunstmatige intelligentie uiteindelijk het menselijk brein gaat overtreffen en van alles kan doen dat wij niet kunnen. Vraag het aan Google, OpenAi of ieder ander techbedrijf dat zich volop bezighoudt met AI en ze zullen zeggen dat het onvermijdelijk is dat deze technologie ooit slimmer gaat zijn dan wij. Veel mensen hebben zelfs hun zorgen uitgesproken over de ontwikkeling van deze technologie en wat men ermee zou kunnen doen, waaronder Elon Musk. Hierdoor is het grootste deel van de mensen overtuigd van het feit dat technologie ooit slimmer wordt dan de mens.

AI wordt nooit slimmer dan de mens  

Volgens wetenschappers van de Radboud Universiteit is dat zeker niet het geval. Zij vermoeden dat de huidige hype rondom AI ervoor zorgt dat er misverstanden ontstaan over wat er wel en niet mogelijk is met deze nieuwe technologie. Hun nieuwe publicatie, genaamd ‘Reclaiming AI as a Theoretical Tool for Cognitive Science’, legt uit waarom de beweringen rondom kunstmatige intelligentie overdreven zijn. Hun bevindingen laten zien dat er nooit genoeg rekenkracht zal zijn om ‘artificial general intelligence te creëren die dezelfde cognitieve prestaties levert als het menselijk brein. Daarnaast legt het artikel uit waarom het najagen van dit doel een kansloze onderneming is en een verspilling van energiebronnen en grondstoffen. Sommigen hiervan zijn immers al schaars op het moment!  

Samenwerking tussen diverse universiteiten

De publicatie is een samenwerking tussen verschillende universiteiten, waaronder de Radboud Universiteit, de Universiteit van Aarhus, Universiteit van Amsterdam, Universiteit van Bristol en de Memorial University of Newfoundland. Alle onderzoekers die meewerkten aan de publicatie zijn expert op het gebied van cognitiewetenschap, neurowetenschappen, informatica en filosofie. Mensen realiseren zich vaak niet dat cognitiewetenschap cruciaal is voor het begrijpen van de claims over de capaciteiten van AI. Men neigt ernaar om de overschatten wat computers kunnen en te onderschatten waar ons eigen brein toe in staat is. Volgens de onderzoekers is het belangrijk dat het grote publiek meer kennis krijgt van AI. Op dit moment gelooft iedereen de claims van grote techbedrijven, maar dat is ook niet goed. Het doel van de universiteiten is om een beter begrip van AI-systemen op te bouwen, zodat men met een kritisch oog naar de tech-industrie kan blijven kijken.  


Zo pas je de eerste fase van de AI Act toe 

Om je op weg te helpen met de voorbereidingen op de eerste fase van de AI Act, zetten we hieronder een kort stappenplan voor je op een rij: 

  • Stap 1: Inventariseer alle AI die je met je bedrijf gebruikt. In sommige gevallen heb je misschien niet eens door dat je gebruikmaakt van een programma waar kunstmatige intelligentie bij komt kijken. Zoek dit dus goed uit. AI kan bijvoorbeeld een deel zijn van software die je gebruikt, zoals een CMS-systeem.  
  • Stap 2: In welke risicocategorie valt de kunstmatige intelligentie die je met jouw bedrijf gebruikt? Om dit te bepalen kun je gebruikmaken van de Europese database. Hierin vind je namelijk alle AI die onder de hoge risicocategorie valt. Je kunt ook de leverancier van de software die je gebruikt om hulp vragen als je twijfelt! 
  • Stap 3: Je weet nu in welke risicocategorie iedere vorm van AI die je gebruikt valt, dus kun je meteen bepalen hoe je de kunstmatige intelligentie wel en niet mag gebruiken. Kijk niet alleen naar de eerste fase, maar ook al naar de volgende fases. Zo ben je goed voorbereid als je een audit krijgt. De eerste fase van de AI Act slaat alleen op de hoogste risicocategorie.  
  • Stap 4: Zorg dat je alleen nog AI gebruikt op een manier die toegestaan is volgens de nieuwe AI Act om boetes en andere consequenties te voorkomen! 

Welke soorten AI vallen in de categorie ‘onacceptabel risico’?  

Om de eerste fase van de AI Act goed toe te passen, is het natuurlijk belangrijk om te weten welke soorten AI in de categorie onacceptabel risico vallen. Kunstmatige intelligentie valt in de hoogste risicogroep als het een directe bedreiging vormt voor burgers. Denk bijvoorbeeld aan dingen zoals social scoring, het manipuleren of misleiden van mensen, bijvoorbeeld door het gebruiken van iemands stem, het biometrisch categoriseren en het voorspellen van crimineel gedrag. Maakt jouw bedrijf op wat voor manier dan ook gebruik van een AI-toepassing die één van deze dingen doet, stop dan met het inzetten van deze toepassing. Of bekijk of je de toepassing op een manier in kunt zetten die wel toegestaan is.  

Hoe faseer je verboden vormen van AI het beste uit?  

Als je erachter bent dat je bepaalde vormen van AI gebruikt die vanaf 1 februari 2025 verboden zijn volgens de AI Act, moet je deze uiteraard uit gaan faseren. Dit gaat vaak niet van de ene op de andere dag. Er zijn een aantal strategieën die je hiervoor kunt inzetten: 

  • Het gebruik stoppen: Stop met het gebruiken van de AI-toepassing.  
  • Zoek een goed alternatief: Misschien is er een alternatief voor de AI-toepassing die in principe hetzelfde doet, zonder gebruik te maken van een verboden vorm van AI. Mocht je bijvoorbeeld een nieuwsbrief programma hebben dat gebruik maakt van social scoring, vervang dit dan door A/B testen! 
  • Verboden AI vervangen door AI die wel is toegestaan: Maakt jouw huidige AI gebruik van een vorm van social scoring, dan kun je ervoor kiezen om dit programma te vervangen door software die bijvoorbeeld alleen naar bepaalde kenmerken van anonieme groepen kijkt. Bijvoorbeeld leeftijdscategorieën en een regio waar men woont.  
  • Vervang de AI door menselijke medewerkers: Ten slotte kun je ervoor kiezen om de AI-toepassing te laten gaan en het werk over te laten nemen door menselijke medewerkers. Misschien kun je binnen dezelfde software ook werken zonder AI en het werk van de AI door een persoon over laten nemen? Het kost dan misschien wat meer tijd, maar je loopt geen risico op hoge boetes! 

Conclusie  

Er zijn diverse manieren waarop jij jouw bedrijf goed kunt voorbereiden op de eerste fase van de AI Act die op 1 februari 2025 ingaat. Of je er nu voor kiest om de AI-toepassingen stop te zetten of naar alternatieven te gaan zoeken, we raden je aan er op tijd mee te beginnen. Het voelt misschien nog ver weg, maar het uitfaseren van bepaalde toepassingen en werkwijzen kan veel tijd in beslag nemen. Voor je het weet is het februari 2025 😉  


1. Elektronische patiëntendossiers en analyse van data  

Elektronische patiëntendossiers worden inmiddels al best lang ingezet binnen de gezondheidszorg, maar ze worden steeds efficiënter en geavanceerder. In een patiëntendossier staat uitgebreide informatie over de medische achtergrond van een persoon. Denk bijvoorbeeld aan laboratoriumresultaten, medicatie die in het verleden voor is geschreven, vaccinaties, enzovoorts. Dankzij glasvezel kan deze informatie binnen de gezondheidszorg snel en veilig tussen diverse medische faciliteiten en zorgverleners worden verzonden. Het gaat immers om uiterst gevoelige informatie, dus de verbinding moet zo veilig mogelijk zijn. Ten slotte kan men dankzij glasvezel waardevolle inzichten genereren met behulp van data-analyse en de inzet van AI.  

2. Glasvezel in de gezondheidszorg maakt geneeskunde op afstand mogelijk

Het is steeds beter mogelijk om telegeneeskunde en consults op afstand aan te bieden dankzij de inzet van glasvezel in de gezondheidszorg. Artsen kunnen met behulp van veilige en snelle glasvezelnetwerken patiënten op afstand een consult aanbieden. Zowel het diagnosticeren als het behandelen en monitoren kan vandaag de dag op afstand, wat natuurlijk ideaal is voor mensen die lastig bij het ziekenhuis kunnen komen, zoals ouderen. Dankzij de geavanceerde encryptietechnologie en beveiligingsprotocollen in een glasvezelnetwerk zijn de gevoelige gegevens van patiënten veilig. Momenteel werkt men er zelfs naartoe dat artsen ook operaties op afstand kunnen uitvoeren met behulp van robotica! 

3. Sneller en beter diagnoses stellen  

Moderne technieken die artsen inzetten om een diagnose te stellen, zorgen voor een hoog gegevensgebruik. De gegevens moeten snel en veilig overgedragen kunnen worden, zodat resultaten van onderzoeken sneller binnen zijn en artsen beter diagnoses kunnen stellen. Dankzij de hoge snelheden die glasvezel biedt kunnen specialisten sneller gegevens en resultaten met elkaar uitwisselen, waardoor een diagnose eerder wordt gesteld en de behandelingen efficiënter en effectiever worden. Hoe sneller je erbij bent, hoe beter een aandoening vaak te behandelen is. Glasvezel in de gezondheidszorg biedt dus ook meer perspectief voor patiënten.

Conclusie  

Glasvezel is dus van cruciaal belang voor de gezondheidszorg. Het zorgt ervoor dat artsen en specialisten sneller kunnen communiceren, dat er vlotter een diagnose gesteld kan worden, dat gevoelige gegevens vertrouwelijk blijven en dat artsen behandelingen en consults op afstand aan kunnen bieden. De technologische ontwikkelingen in de gezondheidszorg gaan momenteel erg hard, dus we verwachten dat glasvezel alleen maar belangrijker gaat worden in dit vakgebied!  


Kunstmatige intelligentie en stroomverbruik  

Achter alle bestaande AI-modellen zitten datacenters die enorm veel stroom verbruiken. Kunstmatige intelligentie vergt immers een hoop rekenkracht en om die op te wekken, is er veel energie nodig. Datacenters gebruiken zo’n 10 tot 50 keer zoveel energie als een gemiddeld bedrijfspand per verdieping. Er is inmiddels heel wat onderzoek gedaan naar het energieverbruik en de impact op het klimaat van kunstmatige intelligentie. Een onderzoek van de Universiteit van Massachusetts wijst bijvoorbeeld uit dat het trainen van slechts één AI-model zorgt voor meer dan 283.000 kilogram aan C02. Helaas is het lastig om de impact van kunstmatige intelligentie op het milieu nauwkeurig te berekenen, aangezien veel techbedrijven niet transparant zijn over hun energieverbruik en C02-uitstoot.  

De impact van kunstmatige intelligentie op het klimaat kan ook positief zijn! 

Nu hebben we het alleen gehad over de negatieve impact van AI op het klimaat, maar er zijn ook een hoop manieren waarop AI-modellen juist kunnen meehelpen aan dingen die het milieu positief beïnvloeden. De Green AI-beweging is recent ontstaan en hun doel is om duurzame en milieuvriendelijke algoritmes te ontwikkelen. Kunstmatige intelligentie kan immers helpen om klimaatverandering beter in kaart te brengen en oplossingen hiervoor aan te dragen. Daarnaast kunnen we AI inzetten om natuurrampen beter te voorspellen, zodat mensen op tijd kunnen evacueren. Op dit moment wordt kunstmatige intelligentie al voor een aantal groene doeleinden ingezet:  

  • Illegale ontbossing tegengaan: Het WNF ontwikkelde een AI-model genaamd Forest Foresight. Ze zetten dit model in om illegale ontbossing op tijd tegen te houden, onder andere met behulp van satellietbeelden.  
  • Biodiversiteit monitoren: Wetenschappers hebben AI-technologie gecombineerd met drones en satellietbeelden om de biodiversiteit te kunnen monitoren. Zo spotten ze veranderingen sneller en kunnen ze indien nodig op tijd ingrijpen. Ook ziektes onder wilde dieren worden op deze manier sneller en makkelijker opgemerkt.  
  • Water reinigen en hergebruiken: Men kan met behulp van AI de kwaliteit van water beter in de gaten houden en het water op tijd reinigen. Zo ziet men sneller wanneer er chemicaliën of andere vervuilingen in het water zitten en kan het water meteen extra schoongemaakt worden.  
  • Verspilling tegengaan: Verspillingen van voedsel en water hebben een grote impact op het klimaat. Men onderneemt al veel om voedselverspilling tegen te gaan, maar met behulp van AI kunnen we hier nog wat verder in gaan. Denk bijvoorbeeld aan het hanteren van dynamische prijzen voor voedsel op basis van de houdbaarheidsdatum. Daarnaast kan AI voorspellingen doen, waardoor supermarkten hun inkoop beter kunnen afstemmen op het consumentgedrag.  

Dit zijn slechts een aantal voorbeelden van alle positieve dingen waar we kunstmatige intelligentie voor kunnen gebruiken op het gebied van duurzaamheid!

Conclusie  

Op dit moment is de negatieve impact van kunstmatige intelligentie nog behoorlijk duidelijk aanwezig, maar hier begint verandering in te komen. Men besteedt steeds meer aandacht aan energiezuinigheid en duurzaamheid bij het bouwen van datacenters en het ontwikkelen van AI-modellen. Daarnaast zijn er ook veel positieve dingen die kunstmatige intelligentie doet voor het milieu en het klimaat. Men is steeds meer bezig met het opzetten van milieuvriendelijke algoritmes die kunnen helpen om duurzame doelen te behalen. Momenteel zijn er al AI-modellen die goede dingen doen voor het milieu, zoals helpen verspilling tegen te gaan en biodiversiteit te monitoren.


Het gebruik van AI binnen de cultuursector

Kunstmatige intelligentie opent een hoop deuren en schept veel mogelijkheden, ook binnen de cultuursector. De erfgoedsector maakt momenteel al heel wat gebruik van AI, bijvoorbeeld voor het doorzoekbaar maken van handgeschreven brieven, gezichtsherkenning in audiovisueel materiaal om bepaald beeldmateriaal makkelijker te kunnen vinden en om nieuwe verbanden te leggen tussen Europese archieven. Maar ook op het gebied van cultuur kan AI natuurlijk voor veel dingen ingezet worden:

  • Waarde toevoegen voor publiek of organisatie: AI kan helpen om het culturele aanbod meer toegankelijk te maken voor het publiek. Dit kan bijvoorbeeld door middel van ondertiteling of automatische vertalingen. Organisaties kunnen AI inzetten om bezoekersaantallen accuraat in te schatten en hun personeelsinzet hierop aan te passen, waardoor ze heel wat kosten kunnen besparen.
  • Automatiseren en efficiënter maken van werkprocessen: Met kunstmatige intelligentie kan een organisatie een hoop werkprocessen automatiseren, wat leidt tot kostenbesparing en efficiënter werken. Voorbeelden hiervan zijn het automatisch vertalen van flyers, het bewerken van video’s en foto’s en het beantwoorden van vragen vanuit klanten via een chatbot. Veel culturele instellingen zijn onderbemand en moeten op hun kosten letten, dus dit zou een mooie uitkomst zijn!
  • Nieuwe producten aanbieden: Kunstmatige intelligentie is een fijn hulpmiddel voor het creëren van nieuwe producten. Makers kunnen het bijvoorbeeld als inspiratie gebruiken bij het maken van nieuwe muziek, het digitaal restaureren van een schilderij of om binnen een eigen collectie nieuwe verbanden te leggen en zo weer nieuwe content te creëren.
  • Verbeteren van de beleving voor het publiek: De culturele sector kan AI inzetten om hun publiek beter te bedienen, wat leidt tot een betere beleving. Voorbeelden hiervan zijn gepersonaliseerde digitale interactieve tours en rondleidingen met behulp van apps en gepersonaliseerde aanbiedingen op platforms van culturele instellingen.

Wat voor negatieve invloed heeft AI op culturele ontwikkeling?

We hebben nu een hoop positieve punten benoemd die kunstmatige intelligentie meebrengt voor de cultuursector, maar er zijn natuurlijk ook een aantal uitdagingen die daar tegenover staan. Zo is de kwaliteit van de output van AI soms nog twijfelachtig, zeker omdat we vaak niet weten waar de informatie precies vandaan komt en of deze dus wel juist is. Daarnaast is het voor makers opletten met auteursrechten, ook als je een AI-sample alleen als inspiratie gebruikt. AI kan immers informatie halen uit een werk waar auteursrecht op berust. En de grootste uitdaging waar we nu tegenaan lopen met het inzetten van kunstmatige intelligentie, is dat het vaak werkt op vooroordelen.

AI en vooroordelen

Het gebruik ervan kan uiteindelijk dus leiden tot een versterking van bepaalde vooroordelen, een invloed die we uiteraard niet willen voor AI aangezien het culturele ontwikkeling vaak juist in de weg staat. Veel generatieve AI-tools hebben bijvoorbeeld een Amerikaanse en Europese bias. Dit betekent dat de content die de AI genereert vaak niet representatief is voor mensen van over de hele wereld. De manier waarop AI getraind wordt, bepaalt wat voor uitkomsten de AI geeft. Gebruikt men alleen informatie die vooroordelen bevat over een bepaald ras of geslacht, dan is de kans groot dat de AI uitkomsten geeft die discrimineren. Dit is één van de redenen dat bedrijven er nog huiverig in zijn om AI in te zetten voor hun wervingsproces. Gelukkig neemt men al stappen om deze uitdaging aan te pakken, bijvoorbeeld het trainen van AI met meer diverse informatiesets. In de toekomst kunnen we kunstmatige intelligentie dus ook vooroordeel-vrij maken!


Wat houdt de regulering van AI in?  

De AI Act moet ervoor zorgen dat ‘bepaalde AI-applicaties die de rechten van burgers bedreigen, verboden worden’. In het akkoord van de Europese Lidstaten staat dat men AI-systemen gaat indelen in verschillende risicoprofielen. Systemen die in het hoogste niveau vallen, worden verboden. Maar ook systemen met een lager risico moeten aan strenge eisen voldoen om goedgekeurd te worden door het parlement. Denk bijvoorbeeld aan algoritmes die men kan gebruiken om cv’s door te spitten. Deze mogen ingezet worden, maar dan moet een bedrijf er zeker van zijn dat het systeem niet zal discrimineren op basis van ras, leeftijd, geslacht, enzovoorts.

Wat betekent de AI regulering in de praktijk?  

Dit betekent onder andere dat bedrijven geen biometrische systemen mogen maken op basis van ‘gevoelige kenmerken’. Ze mogen ook geen gezichten scrapen van andere platforms met als doel om een gezichtsherkenningsdatabase te maken. Ook AI die menselijk gedrag kan manipuleren of die misbruik maakt van de kwetsbaarheden van mensen is verboden. Men mag ook geen systemen maken die emoties herkennen in scholen of werkplekken, die sociale scores geven of die voorspellend politiewerk doen. De politie zelf krijgt daarnaast duidelijke kaders binnen het inzetten van kunstmatige intelligentie. Zij mogen geen biometrische identificatiesystemen gebruiken, alleen in speciale gevallen, maar daarvoor moeten ze een uitgebreide uitleg indienen. Denk bijvoorbeeld aan gevallen zoals een vermiste persoon of een terroristische dreiging. Ten slotte staat in de AI Act dat men afbeeldingen en video’s die met AI zijn gemaakt ook duidelijk moeten bestempelen als ‘AI-content’, zodat gebruikers weten dat het niet echt is. Dit natuurlijk om deepfakes en dergelijke tegen te gaan.  

Wanneer gaat de nieuwe AI-wet in?  

De nieuwe regulering van AI gaat gefaseerd ingevoerd worden, dus niet in één keer. Hier gaat dus nog wat tijd overheen. In mei publiceert het Parlement de definitieve wet pas en daarna duurt het nog een half jaar voordat het verbod op onacceptabele AI-systemen ingaat. In 2025 gaan de regels voor generatieve AI-systemen, zoals ChatGPT en Midjourney, pas in. Ten slotte gaan in 2026 de laatste regels in. Systemen met een hoog risicoprofiel zijn dan verplicht om een mensenrechtentoets te ondergaan, zodat men zeker weet dat het systeem niet discrimineert en geen vooroordelen toepast. Bedrijven die de AI-wet overtreden, kunnen enorm hoge boetes krijgen, die op kunnen lopen tot 35 miljoen euro.