De 15 grootste trends in Artificial Intelligence, Big Data & BI voor 2025

Foto Daan van Beek MSc
Auteur: Daan van Beek MSc
Senior AI-adviseur
Inhoudsopgave

Praktische trends om je AI en BI te verbeteren

We kijken niet in een glazen bol maar onderzoeken in dit trendartikel de onderwerpen waar nu veel over gesproken wordt: de trends in Artificial Intelligence, Big Data en Business Intelligence. Deze lijst stelden we samen op basis van de vele gesprekken die we het afgelopen jaar met onze klanten voerden en de discussies en vragen die tijdens onze opleidingen oppopten. Daarnaast hebben we ons ook verdiept in de trends die anderen voor 2025 hebben benoemd. Welke thema’s zijn populair en welke niet? What is hot and what is not. We kijken dan vooral naar de feiten en geven onze visie daarop. Als techbedrijf heb je een belang om de technologie die jij aanbiedt als trend te bombarderen. Maar bij Passionned Group bekijken we alles wat er om ons heen gebeurt vanuit een 100% onafhankelijke bril en die is niet altijd roze. We selecteren vooral de trends waar je dit jaar praktisch mee aan de slag kunt als AI baas, hoofd BI, CIO, directeur, consultant of business manager. Of mee aan de slag zou moeten.

1. Schone architecturen en één dataplatform

Bij het verschijnen van de eerste druk van het boek ‘De intelligente, datagedreven organisatie‘ waren we een groot pleitbezorger van een schone data-architectuur. Definities van KPI’s sla je niet op in rapporten of dashboards én bereken je ook niet tijdens de extractie van de data uit de bron maar leg je vast in het datawarehouse. We zien nu dat organisaties een steeds sterkere voorkeur krijgen voor deze schone, zuivere architectuur. Die voorkeur wordt aangewakkerd doordat nu alle informatie via één dataplatform te ontsluiten valt (Azure, Google Data Cloud of Analytics on AWS). De noodzaak voor deze schone, zuivere architectuur wordt ook veel groter doordat steeds meer ‘afnemers’ gebruik gaan maken van het datawarehouse, dus niet alleen maar de standaard BI tools zoals Tableau, SAS Visual Analytics of Power BI. Ook websites, intranets, apps, Python, R en andere BI en AI tools moeten gebruik kunnen maken van de centraal vastgelegde definities.

Daar waar er voorheen slechts één tool werd gebruikt voor het genereren en consumeren van managementinformatie, zie je nu dat er aan alle kanten aan het datawarehouse wordt getrokken.

En ook met webservices (REST API) moet het datawarehouse bereikbaar zijn voor zowel interne als externe partijen. Deze schone architectuur, die we al twintig jaar geleden aankondigden, krijgt nu naam en faam: de headless BI architectuur gaat in 2025 op tournee.

2. De doodsteek voor de datavault?

Wij waren al geen grote fan van de datavault voor reporting en analytics en daarom komt dit voor ons niet als een donderslag bij heldere hemel. Met de komst van één allesomvattende architectuur voor (big)dataopslag, reporting, dashboarding, data-analyse en machine learning (zie trend 1) is een dure datavault helemaal niet meer nodig, exotische use cases daargelaten. Het is goed mogelijk dat dit de definitieve doodsteek wordt voor de datavault. Die beoogt om te allen tijde ‘de waarheid’ te kunnen achterhalen en vertellen, zelfs op de minuut nauwkeurig van vele jaren terug. Dit was voor sommige organisaties zoals banken een belangrijke reden om een datavault op te tuigen. Maar moderne platformen zoals Microsoft Fabric bieden robuuste functies voor extractie, transformatie en lange termijn opslag (Parquet, JSON) voor zowel gestructureerde als ongestructureerde data. Ze worden geleverd met native ondersteuning voor versiebeheer, lineage en governance, waardoor traceerbaarheid vanzelfsprekend is. Alle data kan landen in een persistent staging area en kan daar ook voor eeuwig blijven zitten zonder dat het aangetast, overschreven of aangepast wordt.

De staging area fungeert eigenlijk als een archief dat je kan voorstellen als één groot data lake waar je alle data in kan stoppen, zowel interne als externe data, zowel records uit je ERP of CRM pakket als foto’s, geluidsfragmenten, video’s en documenten. Moet jouw financiële instelling of zorgbedrijf vanuit compliance iets aantonen, dan kun je rechtstreeks op het data lake gewoon een view of rapport maken. Die combineert waar nodig de historische gegevens uit verschillende bronnen en draagt ook zorg voor attributen of definities die in de loop van de tijd wijzigden (semantic drift). Vraag hier een second opinion aan op jouw data vault architectuur of initiatief.

3. Cloud BI en AI wordt de standaard

Pictogram om trend 3 te illustrerenBI in de cloud is al lange tijd beschikbaar maar pas sinds dit jaar zien we een toenemende interesse bij organisaties om ook hun BI en AI de komende jaren in de cloud te gaan draaien.. De schaalbaarheid, rekenkracht, de standaard strenge beveiliging (ga uit van zero trust) én de snelheid waarmee je BI en AI producten kunt gaan ontwikkelen vormen de belangrijkste redenen. Je kunt op dit moment voor BI en AI niet meer om de cloud heen, de markt groeit jaarlijks met ongeveer 27%. Voor een woningcorporatie ontwikkelden we in slechts één maand tijd een AI-systeem dat 35.000 plattegronden analyseerde en automatisch de oppervlakte van het balkon of dakterras uitrekent. Door dit in de cloud te doen, beschikten we over enorme rekenkracht (schaalbaarheid) en was het in slechts één uur gepiept. Los van alle andere voordelen die we realiseerden – minder klachten maar wel gefundeerde huurverhogingen met AI – is hiermee zeker heel veel maanden werk bespaard. Vergis je niet in de kracht van de cloud.

Wil je toch je AI en BI on-premise blijven draaien? Zorg dan dat je met valide argumenten komt: comply or explain. Maar blijf alert want cloud datacenters blijken geweldige energieslurpers en dorstige datacrunchers.

4. AI komt uit de kast

Tegenwoordig trek je machine learning modellen zo uit de kast via een API naar de cloud. We noemen dit Machine Learning as a Service. Deze voorgetrainde modellen bevatten al heel veel standaard functionaliteit en intelligentie (Google AI platform, SageMaker AI). Ze kunnen bijvoorbeeld in een split second een plant of dier classificeren op een afbeelding en ook vertellen om welke soort het gaat. Of ze laten je weten of er een gezicht, een stoel of een auto op staat.

Deze computer vision is erg krachtig en wint enorm aan populariteit omdat je de modellen niet (meer) hoeft te trainen. Het uiterlijk van een bloem, dier of menselijk gezicht zal namelijk de komende eeuwen waarschijnlijk niet substantieel veranderen. Dit is wat anders dan het gedrag van criminelen of fraudeurs, zij passen hun gedrag natuurlijk aan op de pakkans, die met succesvolle Artificial Intelligence toeneemt. Maar ook dit soort modellen zullen de komende jaren in de cloud beschikbaar komen. Die moet je dan nog wel regelmatig een beetje extra trainen met je eigen data. Zo kunnen we een enorme versnelling in de ontwikkeling realiseren van het automatiseren van beslissingen.

Deze ontwikkeling betekent dat AI en machine learning dus veel toegankelijker gaan worden.

Het punt hier is: je hoeft als organisatie voor bepaalde use cases je AI niet altijd meer te trainen met je eigen data. Dat voorkomt ook dat je bij het trainen tegen privacy- en datakwaliteitsissues gaat aanlopen. Natuurlijk blijft er nog genoeg AI over die je nog wél (aanvullend) moet trainen met je eigen data omdat die Machine Learning as a Service (MLaaS) nog niet in de cloud beschikbaar is. Zie ook de trend ‘Fotografie als nieuwe universele taal‘. Neem hier contact met ons op voor meer informatie of boek een AI-inspiratiesessie.

Het handboek Artificial Intelligence Afbeelding van Het handboek Artificial IntelligenceHet boek "De intelligente, datagedreven organisatie" biedt een diepgaand inzicht in de nieuwste ontwikkelingen op het gebied van Artificial Intelligence (AI) en Business Intelligence (BI). Het behandelt actuele trends zoals schone data-architecturen, de opkomst van cloud BI en AI, en de integratie van AI in dagelijkse bedrijfsprocessen. Daarnaast gaat het in op de impact van generatieve AI en het belang van datakwaliteit. bekijk het handboek Artificial Intelligence

5. GenAI is uitgeleerd, de bubbel barst

De introductie van ChatGPT in november 2022 veroorzaakte grote reuring in de samenleving: wow, de computer kan luisteren, praten en hele documenten en gedichten schrijven. De startups buitelden over elkaar heen en miljarden dollars werden in die bedrijven geïnvesteerd. En nu gaat het als een nachtkaarsje uit en barst de bubbel? Inderdaad, generatieve AI was als technologie al enorm overhyped (lees ‘‘de AI Bubbel’‘) maar komend jaar gaat de teleurstelling genadeloos toeslaan. De betrouwbaarheid van de antwoorden laat veel te wensen over, er sluipen voor je er erg in hebt biases in, het is oppervlakkig, dikwijls heel langdradig, het herhaalt steeds maar weer argumenten die al langs zijn gekomen en het is niet heel erg creatief. Soms heb je wel dertig prompts nodig om tot een conclusie te komen en zelfs nadat je ChatGPT of Gemini tot het uiterste hebt gedwongen, blijf je vaak met een gevoel achter het toch niet helemaal te begrijpen. Het is een erg goede na-aper, een alwetende, interactieve encyclopedie, een sterke ideeëngenerator, een prachtige programmeur en samenvatting maker maar daarmee is de kous eigenlijk af. Het systeem lijkt heel intelligent en heel veel te weten maar is eigenlijk van nature dom.

Nu komt daar nog bij dat generatieve AI is uitgeleerd, want het heeft het hele internet al leeggetrokken. Er valt nauwelijks meer iets bij te leren en de rek is eruit. De nieuwe AI-gedreven encyclopedie is voor nu af. Daarnaast komen er steeds meer publicaties online die door generatieve AI zijn geschreven en die vervolgens weer gebruikt worden voor trainingsdoeleinden: besmette machine learning. Hierdoor stort het AI-model in. Natuurlijk proberen de techbedrijven hier een mouw aan te passen, er wordt onder andere gekeken naar langzaam, lineair leren zoals in het traditionele onderwijs. Of dit de prestaties van de modellen zal verbeteren weten we niet. De huidige problemen met GenAI komen doordat Artificial Intelligence van nature werkt met waarschijnlijkheden. Generatieve AI is dus geen nieuwe technologie maar is een toepassing van al bestaande machine learning algoritmes die al langer dan twintig jaar bestaan. GenAI kan alleen maar bij benadering zaken voorspellen zoals het beste volgende woord, leesteken of pixel, gegeven de prompt en de context.

Voor sommige applicaties is dat veel beter dan de gemiddelde mens kan doen, dus GenAI heeft zeker nog wel een mooie toekomst, maar voor uitkomsten van hoge kwaliteit heb je nog steeds een expert nodig. De hype rond generatieve AI is voorbij en nu zou de technologie echt nuttig kunnen worden. Small Language Models (SLM’s) vormen mogelijk een oplossingsrichting.

6. Smalle taalmodellen

Icoon om trend 6 te illustrerenNu generatieve AI zijn limiet lijkt te hebben bereikt en is uitgeleerd, wordt er nagedacht over een oplossing. Daar waar de grote taalmodellen zoals ChatGPT het hele internet hebben leeggetrokken, worden smalle taalmodellen (Small Language Models, SLM’s) getraind op een beperkte, zeer gespecialiseerde dataset. Dit heeft als grote voordeel dat de antwoorden minder algemeen en veel meer specifiek en relevanter kunnen worden. Qua algemene kennis en taalkundig zijn ze minder goed toegerust maar dat is voor bepaalde toepassingen zeker niet altijd nodig. Denk hierbij aan de helpdesk die de afgelopen jaren ontzettend veel computerproblemen heeft opgelost en gedocumenteerd. Of denk aan een specifieke dataset voor het schrijven van offertes in de bouw of voor de realisatie van een complex IT project.

SLM’s zijn snel, nemen doorgaans weinig ruimte in beslag en kunnen ook op smartphones draaien zonder internetverbinding. De prestaties van SLM’s kunnen in theorie stukken beter zijn dan van algemene taalmodellen maar de praktijk moet uitwijzen of deze trend stand houdt. Er doen nog weinig succesverhalen van SLM’s de ronde, daar is de technologie op dit moment te jong voor.

7. AI geletterdheid wordt voor iedereen verplicht

De AI Act is in mei 2024 door de EU aangenomen en is daarmee wet geworden. Deze regelt een aantal zaken waaronder het verplicht classificeren van AI systemen naar risico: onaanvaardbaar, hoog, beperkt en minimaal / geen.

Niveau onaanvaardbaar

Het niveau onaanvaardbaar is nu bij wet verboden en gaat bijvoorbeeld over manipulatieve AI. Denk dan bijvoorbeeld aan deep fakes van politici of nepadvertenties die het publiek misleiden, social scoring, emotieherkenning op de werkplek, predictive policing, et cetera. Er zijn beperkte uitzonderingen wanneer aangetoond kan worden dat deze onaanvaardbare AI toch nodig is, bijvoorbeeld om (nationale) bedreigingen het hoofd te bieden. De overheid mag zelf in bepaalde situaties deze categorie AI toch inzetten (!).

Hoog risico

De hoog risico AI systemen zijn niet verboden maar moeten voldoen aan strikte eisen qua transparantie, risicobeheer en robuustheid. Daarnaast is menselijk toezicht (oversight) verplicht, de ‘computer says no’ is met deze categorie niet mogelijk.

Beperkt risico

De AI met een beperkt risico gaat over deep fakes voor huis-, tuin- en keukengebruik, voorspelmodellen voor vraag- en aanbod en bijvoorbeeld chatbots. Gebruikers van deze AI moeten worden ingelicht dat ze te maken hebben met (generatieve) AI.

Minimaal/geen risico

De categorie minimaal of geen risico gaat bijvoorbeeld over AI in spamfilters en hier worden geen beperkingen aan opgelegd. Gebruikers van AI systemen met een hoog of beperkt risico of de resultaten die die categorie AI oplevert, moeten per 1 februari 2025 worden voorgelicht of zelfs opgeleid in AI. Het gaat hier dus niet alleen om medewerkers maar ook om klanten. Zodat ze zich bewust zijn van het feit dat dit iets is dat door AI is bepaald of gemaakt.

Mensen moeten AI resultaten kunnen herkennen of op z’n minst een kritische noot kunnen kraken. Dit noemen we AI geletterdheid. In Nederland is de Autoriteit Persoonsgegeven de verantwoordelijke instantie om deze nieuwe wetgeving te handhaven. Laat je adviseren door een expert en neem hier contact met ons op.

8. Voice AI breekt niet door

Tegen een computer praten is niet nieuw maar met generatieve AI (Natural Language Processing) is het een stuk interactiever en waardevoller. We noemen dit Voice AI. Het kan op plekken waar je niet kan of wil typen, bijvoorbeeld tijdens het autorijden, een uitkomst zijn. Zo kunnen verkopers al rijdend een gespreksverslag dicteren via GenAI, die hier een samenvatting van maakt en dat vervolgens doorstuurt naar het CRM pakket. Sommige experts zien dit als een trend maar we denken niet dat dit op grote schaal gebruikt gaat worden. In 2015 was ik op een conferentie van SAS in Marbella waar een simpele vorm van voice AI gepresenteerd werd. Je kon tegen je BI systeem praten (via Alexa) en vragen stellen zoals ’toon de omzet van de afgelopen 12 maanden uitgesplitst per productgroep’. En het antwoord kwam keurig op het scherm te staan. Geweldig, maar zoals met veel technologie, het succes staat of valt met de adoptie en acceptatie door de mens.

Er zijn zeker bepaalde mensen fan van deze vorm van AI maar wij zien op dit moment niet gebeuren dat we enorm veel gesprekken, laat staan de vertrouwelijke, via Voice AI gaan voeren. Simpelweg omdat de gesprekken afgeluisterd kunnen worden. En als iedereen het gaat doen in dezelfde fysieke ruimte, ga je door elkaar heen praten en kan AI er geen touw meer aan vastknopen. Er blijven zeker mooie use cases over voor Voice AI maar onze verwachting is niet dat het de wereld gaat veroveren.

9. Naadloze integratie van BI & AI

Eindelijk gaan er steeds meer stemmen op dat reguliere BI (reporting, dashboards en simpele data-analyse) en AI moeten worden geïntegreerd. We zien dat niet alleen terug in de tooling zoals Tableau, Cognos Analytics en Power BI waar AI functies ingebed worden in rapporten en dashboards. We zien het ook in de thema’s die op tafel liggen tijdens sessies met klanten en de hang naar één allesomvattend dataplatform.

De integratie van BI en AI is eigenlijk heel logisch want AI is in essentie immers niets anders dan het automatiseren van data-analyse. Artificial Intelligence is dus een slim vervolg op reguliere BI en kan eigenlijk niet los gezien worden van BI. Een AI-expert kan misschien wel veel weten over AI, maar hoeft daardoor niet per definitie een goede adviseur te zijn voor organisaties. De integrale kennis en ervaring met het vakgebied business intelligence en data-analyse ontbreekt vaak waardoor AI applicaties binnen organisatie vaak mislukken. Let er daarom op dat (generatieve) AI binnen jouw organisatie niet losgezongen is of wordt van BI. Dit is één van de voornaamste redenen waarom AI faalt of niet in productie genomen kan worden. Zie het voorbeeld waarbij zwangerschapsuitkomsten in India worden voorspeld met AI zonder grondige kennis van de data.

De redenering gaat als volgt: Business Intelligence beoogt beslissingen datagedreven te maken, de harde kern daarvan bestaat uit data-analyse en AI automatiseert die. Ga je AI inzetten zonder dat je eerst met Business Intelligence en data-analyse je data goed leert kennen, dan vraag je om grote problemen. AI kan superkrachtige inzichten leveren maar automatisering zonder diepgaande kennis leidt tot slechte resultaten, verlies van vertrouwen en potentieel schadelijke beslissingen. Eerst begrijpen (BI), dan automatiseren (AI). Wil je precies weten hoe dit zit? Volg dan bijvoorbeeld onze AI training voor managers en bestuurders.

De Artificial Intelligence training Afbeelding van De Artificial Intelligence trainingDe Artificial Intelligence training van Passionned Group helpt professionals om AI praktisch en strategisch in te zetten binnen hun organisatie. Tijdens de training komen onderwerpen aan bod zoals de integratie van AI en BI, en datakwaliteit. De training biedt concrete tools en inzichten om direct aan de slag te gaan. Dit maakt het een waardevolle ervaring voor managers, bestuurders en consultants die hun kennis willen verdiepen en toepassen.bekijk de Artificial Intelligence training

10. AI als grote vervuiler

Pictogram om trend 10 te illustrerenDe grote datacenters waar AI op draait, zoals die van ChatGPT en Gemini, verbruiken ontzettend veel stroom en slurpen in grote hoeveelheden drinkwater. De cijfers uit de onderzoeken lopen uiteen maar de afgelopen drie jaar is het elektriciteitsverbruik voor datacenters verdubbeld, mede aangedreven door de tegenwoordige populariteit van AI. Een vraag aan ChatGPT verbruikt bijna 10 keer meer stroom dan een normale zoekopdracht in Google. De verwachting is dat rond 2030 alle datacenters 3-4% van het totale elektriciteitsverbruik voor hun rekening zullen nemen.

Gegeven dat we onze ecologische footprint juist moeten verminderen is dit geen positieve ontwikkeling. Maar doordat generatieve AI nog (net) een hype is en de verwachting is dat die zal overwaaien, geeft dit alles misschien wel een vertekend beeld. Zoals we weten loopt wetgeving bijna altijd achter de feiten aan. Het ligt daarom in de lijn der verwachting dat de komende jaren de ongebreidelde groei van datacenters aan banden wordt gelegd. Er zou ook bijvoorbeeld een verplichting kunnen komen dat de datacenters zelfvoorzienend moeten gaan worden qua stroom, Microsoft wil hier al mee starten. Water is een ander verhaal. Dat haal je niet zomaar ergens vandaan, dat kan niet worden opgewekt.

Dat AI nu opeens als grote vervuiler te boek komt te staan is apart want de grote social media platforms – waar overigens ook een beetje AI in zit verweven – verbruiken ook al jaren ontzettend veel stroom. Nuancering is op zijn plaats: uit onderzoek blijkt dat de grote bulk stroomverbruik van datacenters (tot wel 80%) niet gerelateerd is aan AI maar te maken heeft met normale dataverwerking en -opslag. Nu veel westerse landen en grote stedelijke gebieden worstelen met netcongestie, is het misschien raadzaam om met elkaar te kijken hoe we de milieubelasting van datacenters kunnen verminderen, los van of AI de grote boosdoener is of niet.

De eerste vragen die je dan kunt gaan stellen: heb je bepaalde AI toepassingen of BI dashboards wel echt nodig Moet je ChatGPT aan alle medewerkers ter beschikking stellen? Als je met AI start, zorg dan dat het ook helpt bij een duurzame bedrijfsvoering. De toepassing van goede AI zorgt namelijk in veel gevallen voor minder verspilling en meer precisie en is vanuit dat perspectief juist weer erg duurzaam.

11. De glans van Big Data verdwijnt

Nu AI volop in de belangstelling staat en alle aandacht naar zich toe trekt, is het de vraag hoe het verder met het vakgebied van Big Data analytics gaat. De vraag is sinds november 2022 behoorlijk aan het verminderen (bron: Google Trends), de glans lijkt ervan af te zijn. Maar AI zonder big data is veel minder krachtig. Staar je daarom niet blind op Artificial Intelligence en generatieve AI in het bijzonder. Denk eens goed na over big data toepassingen voor jouw organisatie want fotografie wordt de nieuwe universele taal (zie de volgende trend).

12. Fotografie als nieuwe universele taal

Pictogram om trend 12 te illustrerenOnder Big Data verstaan we ongestructureerde data of enorme grote volumes data. Denk dan aan alle video’s, emailberichten, social media posts, webpagina’s, weblogs, geluidsfragmenten en foto’s die (automatisch) worden gemaakt of aangemaakt. Al in 2012 voorspelde Marvin Heiferman dat een foto enorm veel informatie kan verpakken en fotografie de nieuwe universele taal wordt. Bijna iedereen kan haar lezen en bijna iedereen drukt zich erin uit (Raad voor Cultuur, 2024). We bewegen ons van een tekstcultuur naar een beeldcultuur. Binnen het vakgebied AI en Big Data staan we op dit moment niet versteld van de hoeveelheid interessante AI-applicaties die foto’s gebruiken als bron.

We bewegen ons van een tekstcultuur naar een beeldcultuur.

Het wordt nog te weinig gedaan. Onlangs werkten we een pilot uit voor een gemeente die het zwerfafval binnen het centrumgebied van de stad zou moeten gaan classificeren met AI. De beelden waren al beschikbaar vanuit crowd control, nu gaan we die gebruiken voor het detecteren van zwerfafval. Op basis van één foto kun je meerdere interessante conclusies trekken. En dat maakt fotografie voor AI en Big Data analyses zo verschrikkelijk interessant. Want gedetailleerde foto’s van een gebied in een stad kunnen allerlei zaken aan het licht brengen. Je kunt niet alleen zwerfafval detecteren en zien hoeveel mensen er op bepaalde tijdstippen gebruik maken van die specifieke publieke ruimte. De beelden kun je ook gebruiken voor het inschatten van wanneer en waar je de bladeren moet gaan vegen en met hoeveel personen. Maar je kan ook vaststellen hoe het gesteld is met de gezondheid van de bomen, wat de conditie van het wegdek of het trottoir is, welke verlichting defect is, wat de leefbaarheid van een buurt is, enzovoorts. Fotografie is met recht dé nieuwe universele taal. Laat je eens inspireren door meer big data toepassingen en neem contact met ons op.

Neem contact op

13. Datakwaliteit stijgt met stip

Nu veel organisaties de AI-boot niet willen missen, komen ze er ook achter dat goede datakwaliteit cruciaal is om betrouwbare uitkomsten te krijgen. We merken dat de belangstelling voor datakwaliteit – en meer algemeen voor Data Governance – in de lift zit. Dat is te merken aan de organisatiestructuur waar nieuwe verantwoordelijkheden worden belegd en nieuwe rollen worden aangesteld zoals een data steward en een Chief Data Officer. Data wordt steeds vaker als een belangrijke asset gezien die gemanaged moet worden en de kwaliteit ervan moet via een robuust proces worden verbeterd.

Gelukkig kan AI helpen bij het snel detecteren van datakwaliteitsproblemen (data profiling) en die zelfs oplossen. Ontbrekende datapunten worden dan afgeleid van andere attributen of met generatieve AI wordt een ‘beste schatting’ gedaan. Daar waar met dashboarding en rapporten slechte datakwaliteit relatief snel aan de oppervlakte kan komen, is dat met machine learning een ander verhaal. Dat vindt grotendeels onder de motorkap plaats. Onder andere door de toenemende vraag naar serieuze AI-toepassingen komt het thema datakwaliteit en -governance hoger op de agenda te staan van een directie of het management.

14. Groeiende IoT netwerken zorgen voor Big Data impuls

Icoon om trend 14 te illustrerenVeel complexe of grotere machines hebben een vrij lange levensduur, denk aan vijf, tien of zelfs twintig jaar. De machines of apparaten die in het verleden werden gemaakt bevatten vaak nog geen ingebakken sensoren (IoT) of kennen geen robuust datamodel dat cruciaal is om betrouwbare data-analyse uit te voeren. Nu veel machines aan vervanging of een upgrade toe zijn (zie ook het TNO rapport ‘Vernieuwingsopgave infrastructuur’ en de nieuwe EU-machineverordening), zal er een nieuwe stroom aan big data op gang komen. IoT netwerken zullen zich gaan uitbreiden en datastromen vanuit machines en apparaten zullen veel vaker kunnen worden gebruikt om berichten tussen machines en platforms uit te wisselen. Er zal een nog groter ecosysteem ontstaan van dataflows via Internet of Things (IoT). Dit biedt meer mogelijkheden om zaken (real-time) te analyseren met AI en daarop direct te gaan acteren. Dit zal de belangstelling naar big data analytics weer doen toenemen, terwijl die op het moment van het schrijven van dit artikel (december 2024) aan het wegzakken is.

15. Realtime first: het Ei van Columbus

Toen was geluk heel gewoon. We leefden niet in een parallelle samenleving en ons sociale netwerk lag vooral op straat. In de eerste jaren van BI was het heel normaal om een datawarehouse wekelijks bij te werken. We hebben dat stramien jarenlang kunnen volhouden maar nu de (onze) wereld steeds vaker omwentelt, moeten we boven op de trends en ontwikkelingen zitten. De standaard is nu dat we het datawarehouse en onze BI dagelijks verversen, maar ook dat blijkt niet altijd snel genoeg. Gegeven alle bovenstaande trends en voorbeelden is één ding duidelijk: we willen niet meer vastzitten in het verleden en steeds maar weer in die saaie achteruitkijkspiegel kijken met rapporten en dashboards. Die tijd is voorbij.

Met alle AI ontwikkelingen die nu gaande zijn is realtime analytics een uitkomst want voorkomen is beter dan genezen.

Zwerfafval detecteren op het moment dat het ontstaat, lik op stuk. Onderdelen in apparaten en machines vervangen nog voordat ze kapot gaan. Boeven in de kraag grijpen nog voordat ze een misdaad begaan. De veegwagens de straat opsturen voordat iemand over de gladde blaadjes een heup breekt. De leefbaarheid van de buurt verbeteren voordat de wijk helemaal verpaupert.

Het Ei van Columbus. De standaard voor BI en AI gaat zich de komende jaren verplaatsen van dagelijks naar realtime first. De sectoren e-commerce, logistiek en financiële diensten lopen hierin voorop. De technologie maakt het mogelijk, de data is beschikbaar, de kwaliteit ervan staat nu volop in de belangstelling, onze processen schreeuwen om verbetering en versnelling, maar zijn wij als mens er ook klaar voor om de extra stap van realtime first te zetten? Durven we het als organisatie aan om AI leiderschap te claimen en voorop te gaan lopen? Waar een wil is, is een weg. Het goede wint het uiteindelijk altijd van het slechte.

Conclusie

We hebben dit jaar geen aandacht gegeven aan thema’s zoals selfservice BI, AI ethiek & privacy. Wat betreft selfservice kunnen we kort zijn. De leveranciers beloven dit al minstens tien jaar, verpakken het als ‘de democratisering van data’, maar we zien dit in organisaties maar niet echt van de grond komen. Wat blijkt? Met selfservice BI produceren (dataongeletterde) mensen nog veel meer onzin aan statistieken, rapporten en KPI’s. Het is tijd om ons te bezinnen en te wapenen tegen de onzin die de markt soms over ons uitstort.

Rondom AI-ethiek en privacy wordt tegenwoordig ontzettend veel geschreven en gesproken. Er komt in de praktijk helaas nog niet veel van terecht. In het verplichte AI-register staan nauwelijks echt spannende AI systemen. Van de hoog risico AI systemen heeft de Politie er slechts één geregistreerd, terwijl het zeker is dat er veel meer hoog risico AI systemen bij die dienst gebruikt worden. Ook het Ministerie van Justitie en Veiligheid (NCTV) komt niet in het AI-register voor. Zoek je op MIVD dan komt het register met ‘er zijn geen algoritmes gevonden’, bijzonder geloofwaardig toch? Rondom ethiek en privacy vindt veel AI-washing plaats. Er wordt een heel ethiekcircus opgetuigd maar de grote techbedrijven worden nauwelijks aan banden gelegd. Ze kunnen blijven groeien en krijgen steeds meer macht. Zelfs overheidswebsites gebruiken cookies om je te volgen. Die verplichte toestemming (de cookiewaarschuwing) wanneer je een website bezoekt, is het gevolg van slecht doordachte wetgeving die niet het gewenste doel heeft bereikt. Had het volgen van individuele bezoekers over het gehele internet niet gewoon verboden moeten worden? Jij zou toch ook het vertrouwen in een winkelstraat verliezen wanneer de winkeliers daar stiekem jouw data delen?

Dus ja, ethiek is er wel en privacy bestaat op papier maar de praktijk wijst uit dat veel van die ethiek een wassen neus blijkt of dat wetgeving de plank behoorlijk misslaat. De onwetendheid en het grote geld – de lobbyclubs – regeren nog steeds. Dit terwijl echte ethiek vrij eenvoudig te implementeren valt: ‘wat gij niet wil dat u geschiedt, doet dat ook een ander niet’. Bij ethiek onderzoek je nauwgezet de voorgestelde oplossingen en welke impact die hebben op het totale ecosysteem. Pas nadat je alles in kaart hebt gebracht, weeg je de voor- en nadelen en maak je een keuze om de oplossing al dan niet te implementeren. ‘Elk voordeel heb z’n nadeel’ zei Cruijff en die zag het omdat hij het door had.

Bovenstaande trends zijn ons uit het hart gegrepen maar wel gestoeld op observaties, onderzoek en jarenlange ervaring met BI en AI. Toch kunnen ook bij ons biases ongemerkt in een stuk sluipen, bijvoorbeeld in de vorm van stokpaardjes. Laat je het ons weten als je er een ziet? Misschien zijn we volgens jou een belangrijke trend vergeten, plaats die dan in een comment.

Namens het hele Passionned-team wens ik je fijne feestdagen en een fantastisch 2025.