topBarLeftS

Waarom AI meer vraagt dan een extra laag!

Voor iedereen die AI nog steeds ziet als een toevoeging bovenop bestaande systemen, processen en data: wordt wakker.

Je kunt AI niet zomaar op chaos leggen en verwachten dat het je op magische wijze het juiste antwoord geeft.

Zodra organisaties AI serieus proberen in te zetten, wordt vooral zichtbaar hoe versnipperd processen, data en besluitvorming vaak nog zijn.

Het recente artikel van Aras [1] raakt precies een ontwikkeling waar ik zelf al langer over schrijf.

We bewegen namelijk langzaam van een wereld waarin systemen vooral informatie tonen, naar een wereld waarin AI een veel actievere rol krijgt binnen dagelijkse processen en besluitvorming.

Veel organisaties gebruiken AI vandaag nog vooral voor inzichten, analyses, samenvattingen en aanbevelingen. Waardevol, absoluut.

Maar de volgende stap ontstaat wanneer AI niet alleen ondersteunt, maar actief gaat meebewegen binnen operations, productontwikkeling, sourcing, compliance en supply chain processen.

Wanneer je dat vandaag naar de praktijk brengt, zie je waar het vastloopt.

De afgelopen jaren hebben bedrijven enorme stappen gezet in het professionaliseren van productontwikkeling en supply chains. Er zijn systemen gekomen voor planning, compliance, sourcing, kwaliteit, design en samenwerking met leveranciers.

Alleen zijn die oplossingen meestal vanuit afzonderlijke behoeften ontstaan, niet vanuit één samenhangend geheel.

Daardoor ontbreekt vaak datgene waar AI afhankelijk van is: context.

Data is niet het probleem. Het gaat om de samenhang erachter: waarom beslissingen vallen en wat dat elders veroorzaakt.

Wat ik sterk vind aan het artikel van Aras, is dat zij AI niet alleen benaderen als een hulpmiddel om sneller informatie op te halen. Zij beschrijven een ontwikkeling waarin AI uiteindelijk niet naast het werk gaat bestaan, maar onderdeel wordt van hoe organisaties daadwerkelijk functioneren.

De complexiteit van productontwikkeling, regelgeving en wereldwijde supply chains is simpelweg te groot geworden om nog vanuit losse systemen en versnipperde processen aan te sturen.

De organisaties die hier echt voordeel uit gaan halen, zijn waarschijnlijk niet de organisaties met de meeste AI-tools, maar de organisaties die erin slagen hun processen, data en samenwerking beter met elkaar te verbinden.

Want zonder die basis versnelt AI vooral de chaos die er al was.


Lees meer

  • [1] Building the Foundation for AI in Product Development
  • Lightium kiest Aras Innovator

    Lightium kiest Aras Innovator om de ontwikkeling van fotonische AI-chips te ondersteunen

    Gegevenstransmissie bevorderen terwijl structuur wordt gebracht in complex, next-generation chipontwerp

    Aras kondigde vandaag (12 mei 2026) aan dat dat Lightium, een in Zwitserland gevestigde startup gespecialiseerd in fotonische geïntegreerde schakelingen (PIC's), Aras Innovator® heeft geselecteerd om een verbonden basis te leggen voor het beheren van de complexiteit van de ontwikkeling van de fotonische chip [1].

    Lightium werkt in één van de technisch meest veeleisende domeinen van vandaag de dag en pakt de groeiende uitdaging van dataoverdracht in moderne computeromgevingen aan. De fotonische geïntegreerde schakelingen verzenden data met licht in plaats van elektrische signalen, wat aanzienlijke voordelen biedt in snelheid en energie-efficiëntie voor datacenters. Aras Innovator biedt de digitale draad om data, processen en disciplines binnen de organisatie met elkaar te verbinden.

    “In moderne AI-datacenters is de grootste bottleneck niet langer de rekenkracht, maar de overdracht van data”, — zei Amir H. Ghadimi, medeoprichter en CEO van Lightium. “Hier komen wij om de hoek kijken: met fotonische geïntegreerde schakelingen kunnen we de prestaties opschalen voorbij de huidige technologieën en tegelijkertijd het energieverbruik aanzienlijk verminderen.”

    Naarmate technologische ambitie toeneemt, neemt ook de complexiteit van ontwikkelingsprocessen toe. Dit drijft de behoefte aan gestructureerde, end-to-end data en volledige traceerbaarheid, beide cruciaal voor schaalverdeling en het beheren van opbrengst in fotonische productie. "In tegenstelling tot meer gevestigde industrieën zoals elektronica of werktuigbouwkunde heeft fotonica geen vaste PLM-standaarden, omdat ontwikkeling zich bevindt tussen softwaregedreven benaderingen en traditionele hardware- en industriële processen—waardoor flexibiliteit essentieel is. Daarom was Aras Innovator zo'n goede match voor onze behoeften," zei Kevin Radican, hoofd Data bij Lightium.

    Lightium koos Aras Innovator vanwege het vermogen om veranderende eisen te ondersteunen en structuur te brengen in de ontwikkelingsprocessen. Het platform stelt het bedrijf in staat om ontwikkelingsdata, simulaties en ontwerpprocessen te integreren op een solide basis voor het beheren van onderdeelstructuren en projecten. Het biedt ook de flexibiliteit om aangepaste front-end applicaties te ontwikkelen die zijn afgestemd op fotonica-specifieke workflows en dagelijks gebruik. Lightium implementeert het platform terwijl het AI-gedreven benaderingen gebruikt om de ontwikkelworkflows verder te optimaliseren.

    “Lightium vertegenwoordigt een nieuwe generatie hightech innovators die een fundamenteel andere benadering hanteren van de ontwikkeling van fotonische geïntegreerde schakelingen”, — zei Matthias Fohrer, Vice President EMEA bij Aras. “In een vakgebied waar gevestigde kaders nog in ontwikkeling zijn, hangt succes af van een fundament dat zich kan aanpassen aan hun aanpak en tegelijkertijd schaal ondersteunt.”

    Lightium werd opgericht in september 2023 en bouwt voort op meer dan zes jaar eerdere research en ontwikkeling. De snelgroeiende startup biedt gieterijdiensten voor fotonische chips op basis van 200 mm productieprocessen, waardoor schaalbare industriële productie mogelijk wordt. Lightium meldt dat hun technologie het energieverbruik met meer dan 30% vermindert vergeleken met conventionele oplossingen. Huidige systemen ondersteunen transmissiesnelheden tot 800 Gbit/s, waarbij de volgende generatie streeft naar 1,6 Tbit/s. Lightium werkt eraan om snelheden boven de 6 Tbit/s in de komende jaren mogelijk te maken.


    Lees meer

  • [1] Successful cooperation: novomind and hagebau sign long-term partnership agreement
  • Waarom de overname van Prior Labs het fundament van SAP verandert

    Als je wilt begrijpen waarom SAP Prior Labs heeft overgenomen, moet je kijken naar de opkomst van 📊 Tabular Foundation Models (TFM’s).

    LLM’s zoals ChatGPT hebben laten zien wat er mogelijk is met taal op grote schaal. Ze leren betekenis en context uit woorden. Maar voor bedrijven blijven LLM’s vooral een 🧸‘speeldoos’: handig voor een e‑mail, maar ongeschikt voor de miljarden euro’s aan data in een ERP‑systeem.

    🧩 Waar LLM’s stoppen

    Organisaties draaien namelijk niet op taal, maar op gestructureerde feiten.

    Een LLM is een meester in taal-waarschijnlijkheid, maar bedrijfsvoering werkt met exacte cijfers en logica.

    Vraag een LLM om een voorraadvoorspelling op basis van 100.000 transacties en hij loopt vast.

    • Taal-logica: Hij ziet een voorraadlijst als een 'verhaal' en voorspelt getallen op basis van wat taalkundig aannemelijk klinkt.
    • Geen context: Hij begrijpt niet dat een celwaarde in de ene tabel een 'gewicht' is en in de andere een 'prijs'.
    • Hallucinaties: Hierdoor verzint hij trends die er niet zijn. Wat in tekst logisch lijkt, is in de bedrijfsvoering vaak financieel fataal.

    📈 De opkomst van TFM’s

    De kern van iedere organisatie zit in tabellen: ERP‑records, transacties en forecasts. Waar LLM’s werken met tekst, werken TFM’s met de architectuur van deze data.

    TFM’s begrijpen de onderliggende logica. Zij zien direct hoe ‘levertijd’ ingrijpt op ‘beschikbaarheid’. Terwijl traditionele machine learning voor iedere nieuwe dataset wekenlang getraind moet worden, doorbreken TFM's dit patroon:

    • Directe analyse: Ze zijn getraind op miljoenen tabellen.
    • Geen opstarttijd: Ze kunnen nieuwe data direct analyseren zonder kostbare training.

    📚 Het artikel "How the Rise of Tabular Foundation Models Is Reshaping Data Science" laat zien waarom deze modellen snel terrein winnen.[2].

    🟦 De visie van SAP: van RPT‑1 naar Prior Labs

    SAP zag deze verschuiving vroeg aankomen. Met hun eigen model, SAP-RPT-1 (Relational Pretrained Transformer), bewezen ze al dat AI voor tabelstructuren tot 3,5 keer nauwkeuriger voorspelt dan een standaard LLM.

    De overname van Prior Labs is de versnelling van die visie. Prior Labs is een van de weinige partijen die TFM‐technologie op dit niveau heeft ontwikkeld. Zij zijn de makers van TabPFN, een model dat wereldwijd de benchmarks domineert. SAP haalt hiermee de krachtigste 'motor' in huis voor bedrijfsdata.

    🧱 Het nieuwe fundament

    De overname draait niet om een product, maar om een nieuw fundament: TFM’s worden de generieke motor voor analyse en besluitvorming op de data waar SAP al decennia de infrastructuur voor levert.

    💡 Conclusie

    LLM’s veranderden hoe we communiceren.
    TFM’s veranderen hoe we bedrijven besturen.


    Lees meer

  • [1] SAP neemt Prior Labs over om een wereldwijd toonaangevend AI-lab in Europa op te zetten.
  • [2] How the Rise of Tabular Foundation Models Is Reshaping Data Science
  • RELEX Solutions lanceert RELEX Open

    RELEX lanceert RELEX Open, waarmee klanten drie manieren krijgen om de implementatie van AI te versnellen.

    Dankzij de innovatieve platformarchitectuur kunnen klanten beproefde oplossingen implementeren, hun eigen AI koppelen en meer functionaliteiten op één basis bouwen.

    RELEX Solutions introduceerde vandaag (7 mei 2026) RELEX Open, een innovatieve architectuur voor haar AI-platform die retailers, fabrikanten en groothandels drie duidelijke manieren biedt om de adoptie van AI te versnellen: bewezen planningsmogelijkheden op grote schaal inzetten, hun eigen AI-agenten en -systemen koppelen aan RELEX en de mogelijkheden rechtstreeks op het platform uitbreiden naar nieuwe operationele gebieden van hun bedrijf [1].

    “AI verandert de manier waarop bedrijfssoftware wordt ontwikkeld, aangeschaft en gebruikt. De vraag is niet langer of je zelf moet ontwikkelen of kopen, maar hoe snel je op de juiste basis kunt bouwen”, — aldus Mikko Kärkkäinen, Group CEO en medeoprichter van RELEX Solutions. “RELEX Open biedt bedrijven een bewezen basis die ze direct kunnen inzetten, met de mogelijkheid om het platform uit te breiden ter ondersteuning van de functionaliteiten die hun bedrijf onderscheiden, zonder helemaal opnieuw te hoeven beginnen.”

    RELEX Open bouwt voort op twintig jaar domeinexpertise en een gedeelde datafundament gevormd door meer dan 700 klanten, waardoor elke functionaliteit begint met bewezen kennis in plaats van een blanco vel.

    RELEX Open ondersteunt drie verschillende uitgangspunten:

    • Zet in wat bewezen is: Prognoses, aanvulling, merchandising, promoties en productieplanningsmogelijkheden, die al door meer dan 700 klanten wereldwijd zijn gevalideerd, zijn voor elk bedrijf geconfigureerd zonder maatwerk.
    • Verbind wat je hebt: Externe AI-agenten en enterprise-systemen verbinden met RELEX via open protocollen en Model Context Protocol (MCP), waardoor realtime, bidirectionele interactie mogelijk is. RELEX roept zowel externe agenten op als wordt door hen opgeroepen, en kan workflows over systemen heen coördineren of opereren binnen orkestraties die door andere platforms zijn gedefinieerd, zodat beslissingen en acties op een gedeelde, consistente databasis zijn afgestemd. Dit stelt gebruikers in staat om met RELEX te communiceren via hun favoriete AI-tools of RELEX-data en beslissingen in hun eigen AI-omgevingen te brengen.
    • Breid uit wat je kunt doen op RELEX: Teams kunnen nieuwe mogelijkheden bouwen op het RELEX-platform om verder te gaan dan traditionele planning naar aangrenzende, waardevolle use cases, waarbij het uitbreidbaarheidsframework datamodellen, algoritmen, workflows en gebruikerservaringen binnen enkele uren in plaats van maanden kan creëren.

    Dit positioneert RELEX als onderdeel van een breder AI-ecosysteem, waar agents en systemen samenwerken over organisatiegrenzen heen in plaats van geïsoleerd te opereren. AI-agents en -systemen kunnen binnen RELEX werken met dezelfde onderliggende data, workflows en beslissingslogica, zonder dat deze voor elke nieuwe interface of use case opnieuw hoeven te worden opgebouwd.

    Alle drie de benaderingen draaien op hetzelfde platform en kunnen, afhankelijk van de behoeften van elke organisatie, samen worden gebruikt, met ingebouwde governance en controle. Elke beslissing, of deze nu wordt genomen door een AI-agent, een model of een menselijke planner, volgt dezelfde bedrijfsregels en is volledig traceerbaar. Organisaties bepalen hun automatiseringsniveau en kunnen beslissingen op elk moment herzien, aanpassen of terugdraaien.

    “Wat platforms die daadwerkelijk AI-waarde leveren onderscheidt van platforms die het alleen maar beloven, is de opgebouwde intelligentie”, — aldus Steve Rowen, Managing Partner van Retail Systems Research. “Na honderden implementaties beschikt RELEX over de soort ingebedde domeinkennis die organisaties niet zelf kunnen repliceren. Dit zijn de oplossingen die de benodigde basis voor modernisering toegankelijker maken, of bedrijven nu willen implementeren, verbinden of zelf ontwikkelen.”

    RELEX bedient wereldwijd klanten in de detailhandel, de maakindustrie en de groothandel. Klanten van RELEX onderzoeken momenteel al de eerste implementaties van uitbreidbaarheid en AI-connectiviteit in pilotomgevingen. Deze initiatieven zijn gericht op het mogelijk maken van snellere innovatiecycli en het bieden van teams de mogelijkheid om nieuwe functionaliteiten direct op het platform te ontwikkelen en te testen, zonder te hoeven wachten op traditionele releasecycli.


    Lees meer

  • [1] RELEX Launches RELEX Open, Giving Customers Three Ways to Accelerate AI Adoption
  • SAP neemt Dremio over

    SAP neemt Dremio over om SAP- en niet-SAP-data te verenigen en agentische AI aan te drijven

    SAP en Dremio kondigden vandaag (4 mei 2026) aan dat SAP heeft ingestemd met de overname van Dremio, een open, high-performance dataplatform dat is ontworpen om agentische AI te versnellen en het vermogen van SAP Business Data Cloud uit te breiden om SAP- en niet-SAP-data te combineren om analytische en AI-workloads effectiever in realtime uit te voeren [1].

    De voorwaarden van de deal werden niet bekendgemaakt. De transactie wacht nog op goedkeuring door de regelgevende autoriteit.

    De meeste enterprise AI-projecten leveren geen waarde, niet door de AI zelf, maar omdat de onderliggende data gefragmenteerd is, vastgezet in propriëtaire formaten en ontdaan van de zakelijke context die het betekenisvol maakt. Het resultaat is een bekend en kostbaar patroon: pilots die niet kunnen opschalen, trage integratie van nieuwe databronnen, dubbel technisch werk en compliance-risico wanneer organisaties niet kunnen verklaren hoe een AI-gedreven beslissing is genomen. Dremio helpt die datafragmentatie en integratiewrijving te elimineren. De overname zal de SAP Business Data Cloud en SAP HANA Cloud aanvullen om naadloze dataintegratie tussen SAP- en niet-SAP-data te waarborgen, met hoge prestaties en lage kosten, om AI-ready context en time-to-value voor AI te versnellen.

    “Enterprise AI stagneert niet omdat de modellen niet goed genoeg zijn; het stagneert omdat de data niet klaar is voor AI-agenten”, — zei Philipp Herzig, CTO, SAP SE. “Dremio elimineert die bottleneck. In combinatie met SAP Business Data Cloud kunnen we klanten nu van ruwe, gefragmenteerde data naar gecontroleerde, AI-klare intelligentie brengen op één open platform.”

    Met Dremio wordt SAP Business Data Cloud een Apache Iceberg-native enterprise-lakehouse die SAP- en niet-SAP-data verenigt om agentische AI op enterprise-schaal aan te drijven. Apache Iceberg is het industriestandaard open tabel formaat, en SAP Business Data Cloud zal dit native ondersteunen als basis. Dit betekent dat er geen databeweging of formatconversie nodig zal zijn. SAP- en niet-SAP-data kunnen naast elkaar bestaan op dezelfde open basis, met gefedereerd analytisch bereik over elke bedrijfsdatabron, gecombineerd met de in-memory engine van SAP HANA Cloud voor realtime transacties en operationele prestaties.

    Het Dremio lakehouse-platform zal de economie van enterprise analytics aanzienlijk verbeteren. Het is serverless en elastisch, schaalt automatisch op als de vraag piekt en weer terug als het afneemt, wat betekent dat er geen vaste capaciteit is om te leveren en geen prestatieplafond wanneer het er het meest toe doet.

    Met Dremio zal SAP een universele, open catalogus leveren die is gebouwd op Apache Polaris en de open Apache Iceberg REST Catalog API. Het dient zowel als de ontdekkings- als de semantische laag van SAP Business Data Cloud, en geeft elke connected engine – SAP of niet-SAP – één toegangspunt tot een uniforme bedrijfscontext: betekenis, relaties, toegangsrechten en datalijn. Deze catalogus zal de basis vormen van de SAP Knowledge Graph, waarbij zakelijke relaties, organisatorische hiërarchieën, regelgevende classificaties en cross-system afstamming worden ingebed als native properties.

    Dremio is een leidende beheerder van open-source projecten die centraal staan in zijn platform: Apache Iceberg, Apache Polaris en Apache Arrow, en SAP is volledig toegewijd aan het blijven investeren in en prioriteren van deze bijdragen.

    De transactie wordt naar verwachting afgerond in het derde kwartaal van 2026, onder voorbehoud van de gebruikelijke afsluitingsvoorwaarden, waaronder goedkeuringen van de regelgevende autoriteit.


    Lees meer

  • [1] SAP to Acquire Dremio to Unify SAP and Non-SAP Data to Power Agentic AI
  • SAP neemt Prior Labs over

    SAP neemt Prior Labs over om een wereldwijd toonaangevend AI-lab in Europa op te zetten.

    De overname verdubbelt SAP's vroege voordeel in tabular foundation models.

    SAP en Prior Labs, de pionier van Tabular Foundation Models (TFM's), kondigen vandaag (4 mei 2025) aan dat zij een definitieve overeenkomst hebben gesloten waarbij SAP Prior Labs overneemt, waarmee SAP's succes in TFM's die begonnen met SAP-RPT-1 worden versneld, en een van 's werelds toonaangevende TFM-onderzoeksteams in de SAP-familie wordt opgenomen [1] [2].

    Prior Labs is de pionier van Tabular Foundation Models, een nieuwe categorie AI die speciaal is ontwikkeld voor gestructureerde data. Opgericht door Frank Hutter, Noah Hollmann en Sauraj Gambhir, heeft de TabPFN-modelserie van Prior Labs, gepubliceerd in Nature, de stand van de techniek op tabellaire benchmarks gezet in honderden onafhankelijke academische studies. Prior Labs schaalt tabellen op om miljoenen rijen, realtime inferentie en geheel nieuwe datamodaliteiten te verwerken, terwijl het de infrastructuur bouwt om ze in productie te zetten in enkele van de meest veeleisende industrieën ter wereld.

    Met het hoofdkantoor in Freiburg, Duitsland, en kantoren in Berlijn en New York City, heeft Prior Labs een van de toonaangevende AI-onderzoeksteams wereldwijd opgebouwd, met onderzoekers die worden aangetrokken van Google, Apple, Amazon, Microsoft, G-Research, Jane Street, Goldman Sachs en CERN.

    Prior Labs zal blijven opereren als een onafhankelijke entiteit, waarbij SAP zich verbindt om de komende vier jaar meer dan €1 miljard te investeren om het op te schalen tot een wereldwijd toonaangevend AI-lab voor gestructureerde data die de wereldwijde bedrijven aanstuurt. De voorwaarden van de deal werden niet bekendgemaakt. De transactie wacht nog op goedkeuring door de regelgevende autoriteit.

    Grote taalmodellen (LLM's) hebben moeite om nauwkeurige voorspellingen te doen op gestructureerde bedrijfsdata omdat ze slechts een rudimentair begrip hebben van tabellen, cijfers en statistieken. In tegenstelling tot LLM's zijn TFM's speciaal ontworpen voor dit type data en kunnen ze bedrijfsresultaten nauwkeurig voorspellen op basis van tabelgegevens zoals betalingsvertragingen, leveranciersrisico's, upsell-mogelijkheden, klantverloop en meer.

    “Vroeg erkende SAP dat de grootste onbenutte kans in enterprise AI niet grote taalmodellen waren; het was AI die werd gebouwd voor de gestructureerde data die de wereldwijde bedrijven aanstuurt”, — zei SAP CTO Philipp Herzig. “We hebben SAP-RPT-1 gebouwd om die overtuiging te bewijzen voor bedrijfsdata. Prior Labs heeft een toonaangevende TFM opgebouwd op basis van publieke benchmarks en een van de toonaangevende onderzoeksteams in deze categorie. Door hun pioniersmodelwerk te combineren met enterprise-data en klantbereik is hoe we deze categorie wereldwijd willen leiden.”

    “In de afgelopen 18 maanden heeft Prior Labs een ongelooflijk team opgebouwd, waarbij de snelheid in tabulaire funderingsmodellen is verhoogd”, — zei Prior Labs CEO Frank Hutter. “Toetreden tot de SAP-familie geeft ons de middelen, de dataomgeving en het klantenbereik om deze categorie tot zijn volledige potentieel te brengen.”

    Zodra de transactie is afgerond, met Prior Labs, krijgt SAP de speciale kans om een toonaangevend AI-onderzoekslaboratorium op te zetten en een nieuwe categorie in TFM's vorm te geven. Het lab zal als een onafhankelijke eenheid opereren om onderzoekssnelheid te waarborgen, terwijl SAP langetermijninvesteringen en een direct pad naar productisatie biedt binnen het SAP-portfolio met SAP AI Core en SAP Business Data Cloud, evenals de agentische laag met Joule.

    Met meer dan 3 miljoen downloads is TabPFN van Prior Labs een breed gebruikte open-source tool voor tabulaire AI, die een dynamisch ontwikkelaarsecosysteem ondersteunt. SAP zet zich volledig in om deze open-source strategie verder te ondersteunen. De medeoprichters van Prior Labs, Frank Hutter, Noah Hollmann en Sauraj Gambhir, leiden een team van wereldklasse AI-onderzoekers en -praktijkmensen. Het bedrijf werkt samen met toonaangevende wetenschappers op dit gebied, waaronder Yann LeCun, winnaar van de ACM A.M. Turing Award en uitvoerend voorzitter bij Advanced Machine Intelligence, en Bernhard Schoelkopf, directeur van het Max Planck Institute for Intelligent Systems en president van ELLIS, beiden zullen zitting nemen in de wetenschappelijke adviesraad van Prior Labs terwijl het uitgroeit tot een wereldwijd toonaangevend AI-laboratorium.

    Innovatie versnellen

    TabPFN-2.6 van Prior Labs is het best presterende model op TabArena, de belangrijkste benchmark voor TFM's. TabPFN-2.6 evenaard de nauwkeurigheid van een vier uur durende geautomatiseerde machine learning-pijplijn — direct, in één enkel model, met een fractie van de complexiteit.

    Met een gelaagde conversatie-interface kunnen zakelijke gebruikers vragen stellen in natuurlijke taal, datasets genereren of selecteren en "wat-als"-scenario's uitvoeren zonder data science en machine learning experts te hoeven zijn. Met de modellen van Prior Labs zal SAP in-context leren bieden, waardoor gebruikers datarecords kunnen leveren om directe, betrouwbare voorspellingen te ontvangen zonder modeltraining. Een enkele TFM kan zich ter plekke aanpassen aan elk bedrijfsdoel, wat resulteert in een snellere time-to-value met GDPR-naleving.

    Met Prior Labs zal SAP TFM's leveren met superieure voorspellende capaciteit die tabellen native begrijpen, statistisch redeneren direct uit data leren en agentische AI-systemen aandrijven die in staat zijn om hoog-niveau doelen te begrijpen, tabellen, taal en afbeeldingen te combineren om te redeneren, domeinkennis te integreren, causaliteit af te leiden en dynamisch aan te passen.

    Na de overdracht zijn SAP en Prior Labs van plan om top-AI-onderzoek om te zetten in enterprise-ready innovatie, zodat klanten nog meer waarde uit hun tabelbedrijfsdata kunnen halen. Echte intelligentie vereist dat je verder gaat dan correlatie om causaliteit te begrijpen. Het antwoord "Wat zal er gebeuren?" is nuttig, maar het beantwoorden waarom het zal gebeuren is transformerend.

    De transactie wordt verwacht te worden afgerond in Q2 of Q3 van 2026, onder voorbehoud van de gebruikelijke afsluitingsvoorwaarden, waaronder goedkeuringen van de toezichthouders.


    Lees meer

  • [1] SAP to Acquire Prior Labs to Establish a Globally Leading Frontier AI Lab in Europe
  • [2] The Next Chapter for Prior Labs
  • [3] Transform structured business data into actionable insights with SAP-RPT-1
  • You can’t build a sustainable supply chain if you don’t know your chain

    In recent years, many organisations have taken significant steps in professionalising their supply chains. Planning has become sharper, forecasts more reliable, and processes more tightly organised.

    With solutions from companies like Microsoft Dynamics 365, RELEX Solutions [a] and Slimstock [b], something has emerged that was long out of reach: a sense of control.

    But that feeling disappears the moment you ask the question that truly matters today: Where does this product actually come from?

    And that is where things become uncomfortable. Most organisations still know their direct suppliers. Some even have a fair idea of the layer behind them. But further upstream, it quickly becomes unclear. And precisely there — where you can no longer properly follow the chain — is where the risks arise that are receiving so much attention today. Think of labour conditions, the origin of raw materials, and environmental impact.

    Transparency is no longer a choice

    Where transparency was once a moral ambition, it has now become a hard business requirement. The introduction of the CSDDD (Corporate Sustainability Due Diligence Directive) [1] has fundamentally changed the playing field. Since the full enforcement of this directive in 2025 and 2026, “not knowing” is no longer a valid excuse. It is straightforward: if you cannot monitor the chain down to the level of raw materials and deeper tiers (Tier 2, 3 and beyond), you face not only reputational risk but also legal and financial exposure.

    The United Nations [2] has translated these challenges into the Sustainable Development Goals [3]. But the CSDDD forces organisations to turn these goals into concrete action. It mandates deep-dive supply chain investigations and, more importantly, the actual remediation of abuses such as forced labour and environmental harm.

    The perverse incentive: the tax on transparency

    What is becoming painfully clear is the enormous imbalance in responsibility. A widening gap is emerging that undermines the sustainability of the entire sector.

    On one hand, there are the large organisations. They are being positioned by legislators and the public as the “scapegoats.” They invest millions in solutions, audits and reporting to make their extended supply chain visible. They build transparency, establish collaborations and collect data. They carry the full financial and legal burden of compliance.

    On the other hand, there is a “grey market” of players sourcing globally without any transparency. They buy products or have them manufactured in Asian countries and bring them to market without any accountability regarding origin, conditions or composition.

    This inequality makes sustainability fragile. Sustainability is not a label you attach to a product; it is the outcome of choices made across a network.

    As long as the burden of compliance rests with the frontrunners while others remain under the radar, sustainability becomes a “tax on transparency”. And if you do not know your network, you simply cannot take responsibility for it.

    The end of the internal focus

    Most software solutions are designed to optimise internal operations. They focus on efficiency, cost and availability within the boundaries of the company itself. But supply chains do not respect organisational boundaries.

    They run across borders, through suppliers who in turn depend on other suppliers. It is not a linear process. It is a network. And a network cannot be managed with systems that only look inward.

    This is why we are now seeing a shift towards Multienterprise Collaboration Networks (MCN). According to Gartner [4], these are platforms that enable companies — regardless of industry or size — to collaborate across all layers of the chain.

    The distinction is essential:

    • ERP/APS optimise internal operations.
    • PLM optimises product development.
    • MCNs optimise relationships, information exchange, and governance between companies.

    At its core, the point is simple. It is not enough to know the partners you work with directly. You must understand how the chain behind them is structured.

    In practice, this means moving beyond loose integrations or endless spreadsheets towards a shared way of working in which you and your suppliers look at the same information. A way of working where you not only see what has been ordered, but also what is happening in production, where delays are emerging and where risks in the deeper layers of the chain are accumulating.

    Companies like TradeBeyond [c] and Bamboo Rose [d] show how these networks are developing. This is especially visible in sectors where sourcing, product development and supplier collaboration come together. They address something that has been neglected for too long. They create grip on a chain that for years relied on assumptions and invisible dependencies.

    Ultimately, it comes down to one thing

    Knowing.

    Knowing where your product comes from. Knowing under what conditions it was made. Knowing what impact it has beyond your own organisation.

    Without that “knowing”, sustainability remains an ambition without a foundation. And compliance under the CSDDD becomes impossible.


    Read more

  • [1] Corporate Sustainability Due Diligence Directive (CSDDD)
  • [2] What are the Sustainable Development Goals?
  • [3] Do you know all 17 SDGs?
  • [4] Gartner: What are Multienterprise Collaboration Networks?
  • [5] Gartner: Market Guide for Multienterprise Collaboration Networks

  • More news about

  • [a] RELEX Solutions
  • [b] Slimstock
  • [c] TradeBeyond
  • [d] Bamboo Rose