Category: Apps

3 storage-problemen die object-storage oplost

Alles begint met begrijpen met welke problemen je te maken hebt, hoe je deze efficiënt kunt oplossen om je zakelijke doelstellingen te bereiken en wanneer je moet bijsturen. Voor objectstorage is dit een bijzonder proces. Want hoewel de technologie al meer dan tien jaar bestaat, zijn de problemen die objectstorage oplost voor veel organisaties relatief nieuw.

De eerste stap bij het beoordelen van elke technologie is bepalen welk probleem je probeert op te lossen. Met andere woorden: hoe zal deze nieuwe technologie jouw it-team in staat stellen om tijd en middelen te besparen, de productiviteit of inkomsten te verhogen en/of bijkomende risico’s te verminderen? In elke technologiesector zijn er zijn talloze tools, calculators en features die je helpen bij het vinden van een oplossing.

Aankoop

“De reden dat je niet eerder tot de aankoop overging, is hoogstwaarschijnlijk omdat je een tijdelijke oplossing had gevonden om het probleem op te lossen”

Waarschijnlijk heb je weleens meegemaakt dat je na lang twijfelen iets kocht, vervolgens het product of de dienst gebruikte en dacht: waarom heb ik dit niet eerder gekocht? De reden dat je niet eerder tot de aankoop overging, is hoogstwaarschijnlijk omdat je een tijdelijke oplossing had gevonden om het probleem op te lossen. Toen je eindelijk iets gebruikte dat speciaal was ontworpen voor dat specifieke probleem, werd de taak of het probleem dat je probeerde op te lossen gemakkelijker.

Dit concept is ook van toepassing in de storage-wereld. Hier kun je eenvoudig gegevens opslaan in verschillende storage layers die voorzien in verschillende behoeften. Dit zijn allemaal tijdelijke oplossingen, daarom ben je je er waarschijnlijk niet van bewust dat je een probleem hebt. Maar wat als die tijdelijke oplossing leidt tot lagere inkomsten, minder middelen en meer risico’s? En hoe stel je dit vast?

Zoals gezegd is object-storage (objectopslag, een computergegevensopslagarchitectuur die gegevens als objecten beheert) ruim tien jaar commercieel beschikbaar, maar wint het nu pas aan populariteit. Hoe komt dit? Het antwoord is dat de problemen die object-storage oplost nu door meer organisaties worden ervaren.

De problemen kun je ruwweg onderverdelen in drie categorieën:

  • Schaalbaarheid

De mogelijkheid om steeds meer data op te slaan en te beschermen, soms tot wel honderden TB’s of PB’s. Ook het aantal bestanden neemt toe tot miljoenen en zelfs miljarden.

  • Gedistribueerde online-toegang

Traditionele applicaties, webapplicaties en eindgebruikers (werknemers, klanten of abonnees) moeten allemaal eenvoudig en betrouwbaar gegevens via internet leveren, opslaan en openen.

  • Total costs of ownership

Het vermogen om te doen wat nodig is binnen het vastgestelde budget, met middelen die beschikbaar zijn en met een minimale impact op bestaande bedrijfstakken.

Kijk je naar de problemen die zich in deze categorieën voordoen, dan valt af te leiden dat de categorieën met elkaar verbonden zijn.

Schaalbaarheidsprobleem

Een van de duidelijkste signalen dat je een schaalprobleem hebt, zijn foutmeldingen die aangeven dat je ‘te weinig schijfruimte’ of ‘onvoldoende geheugen’ hebt. Een minder voor de hand liggend signaal voor niet-programmeurs is een “stotterende” applicatie. Dit kan zich voordoen als een foutmelding via http (404- of 408-error), lange laadtijden van webpagina’s of een andere timeout- of ‘niet gevonden’-bericht. Deze fouten zijn ook gerelateerd aan toegang, maar kunnen worden veroorzaakt door op bestandssysteem gebaseerde opslag die langzamer gaat vanwege capaciteitsbeperkingen. Het niet verplaatsen van ‘warme’ of ‘koude’ gegevens van de primaire opslag kan leiden tot aanzienlijke problemen met de kwaliteit van de service, aangezien de opslag de volledige capaciteit nadert.

Daarnaast zijn er andere risico’s aan verbonden. Soms geven organisaties uit budgettaire overwegingen geld uit aan het opschalen van primaire opslag en investeren ze niet in een goede bedrijfscontinuïteit of crisisplanning. Wanneer je de gegevens van een organisatie niet op de vereiste manier beschermt, riskeer je gegevensverlies, gegevenscorruptie of inbreuk op de gegevensbeveiliging.

Toegangsprobleem

“Deze problemen treden op wanneer werknemers of abonnees geen toegang meer kunnen krijgen tot bepaalde gegevens of inhoud wanneer ze die nodig hebben”

Naast 404- of 408-errors kunnen problemen met gedistribueerde toegang ook worden geïdentificeerd door de complexiteit van workflows en de tijd die wordt besteed aan het inschakelen van externe gegevenstoegang. Mogelijk heb je een heleboel verschillende technologieën moeten samenvoegen, zoals wan-acceleration, webservers of content delivery networks. Misschien worstel je nog steeds met trage ftp-servers of beheer je de toegang tot het netwerk nog steeds met aanmeldingen en wachtwoorden handmatig in een spreadsheet. Deze problemen treden op wanneer werknemers of abonnees geen toegang meer kunnen krijgen tot bepaalde gegevens of inhoud wanneer ze die nodig hebben. Deze problemen manifesteren zich ook als overbelaste administratieve middelen die worden omgeleid om zich te concentreren op processen die niet helpen om een bedrijf te laten groeien.

Tco-probleem

Technische problemen, misbruik van opslagoplossingen, overbelaste administratieve middelen, het niet in staat zijn om datasets op de juiste manier op te slaan of te beschermen, een slechte eindgebruikerservaring en handmatig beheer van opslag kunnen allemaal bijdragen aan de total costs of ownership (tco). Uiteindelijk komt de tco-opslag neer op het budget dat je hiervoor hebt toegewezen en de resultaten die dit heeft opgeleverd.

Als je meer wilt doen met hetzelfde budget, moet je iets veranderen. Dit vereist doorgaans het gebruik van meer kosteneffectieve technologie, een technologie die een aantal processen automatiseert en zo administratieve middelen vrijmaakt. Of een technologie waarmee je nieuwe producten en diensten kunt aanbieden.

(Auteur Ekrem Koc is sales director Benelux & Turkije DataCore Software.)

Read More

Dit zijn de belangrijkste strategische techtrends

Trends die de komende tien jaren doorzetten, houden veelal verband met de opkomst van het hybride werken als gevolg van de pandemie. De doorbraak van het werken op afstand betekent dat taken op uiteenlopende plekken worden uitgevoerd. En dat heeft gevolgen voor de inrichting van de it, de organisatie van data en de applicaties waarmee je werkt.

Adviesbureau Gartner presenteerde tijdens de  IT Symposium/Xpo Americas de voornaamste strategische technologietrends.

  • Distributed enterprise

De voornaamste trend is die van de ‘gedistribueerde onderneming’. De traditionele organisatie waarbij iedereen op kantoor zat, heeft zijn langste tijd gehad. Medewerkers zijn over een groter geografisch gebied verspreid. Om deze hybride werkwijze te faciliteren, zijn veranderingen in techniek en dienstverlening doorgevoerd. 

De veranderde werkwijze met teams waarvan de leden op verschillende locaties hun werk doen, heeft impact op bedrijfsmodellen.

  • Composable applications

Veranderingen in de bedrijfsmodellen doen ook de behoefte voelen aan architectuur die het mogelijk snel, veilig en efficiënt applicaties te vernieuwen. Dit verklaart de opkomst van wat Gartner noemt ‘composable applications’. Bij deze applicaties kan je de functionele blokken ontkoppelen, finetunen en weer nieuwe applicaties maken

  • Cloud-native platforms

Volgens Gartner leidt het werken op afstand tot de versnelde adoptie van cloud-native platforms. Om ten volle de vruchten van de cloud te kunnen plukken, kan je niet zomaar doorgaan met oude applicaties. Lift-en-shift-migraties voldoen minder. 

Cloud-native platforms, doorgaans gebaseerd op containertechnologie en Kubernetes, maken optimaal gebruik van de schaalvoordelen van de cloud. Ze passen goed bij devops en een agile werkwijze. Gartner voorspelt dat omstreeks 2025 bij meer dan 95 procent van de nieuwe digitale initiatieven deze platforms als basis zullen dienen. Dit jaar is dat nog maar bij minder dan veertig procent het geval.

  • Cybersecurity-mesh

Het hybride werken waarbij teams een deel van de tijd vanuit huis werken, vraagt ook om een andere aanpak van de veiligheid. Ook het feit dat bedrijfsmiddelen over een groter gebied verspreid liggen, maakt een herbezinning noodzakelijk. Gartner bepleit een ‘cybersecurity-mesh-architectuur’. Bedrijfsmiddelen en gebruikers kunnen zich overal bevinden waardoor de traditionele manier van beveiliging passé is.

Afgestapt wordt van het idee om één grote ‘beveiligingsring’ rond alle apparaten of knooppunten van een it-netwerk te zetten. In plaats daarvan wordt rond elk apparaat of toegangspunt een aparte omheining geplaatst. Alle activa wordt individueel beveiligd. Maar die ‘omheiningen’ moeten wel onderling zijn verbonden. Cybersecurity-mesh ligt in het verlengde van zero-trust-security, een aanpak waarbij continu en bij elke actie iemands betrouwbaarheid wordt getoetst. 

  • Privacy enhancing computation

Behalve de security moet bij de ‘gedistribueerde onderneming’ ook de privacy anders worden aangepakt. Gartner noemt dit ‘privacy enhancing computation’. Privacygevoelige informatie wordt daarbij beveiligd zowel op het niveau van data als op niveau van software en hardware.

  • Data fabric

De grote hoeveelheden data die ondernemingen verzamelen, worden ook steeds meer gedistribueerd. Het aantal data- en applicatiesilo’s is de afgelopen tien jaar enorm gestegen, stelt Gartner. Tussen deze data of applicaties vindt van nature geen uitwisseling plaats. Daar moeten data- en analyseteams aan te pas komen. Maar het aantal professionals is zeker niet toegenomen. De meeste gegevens waarover een onderneming beschikt, blijven daarom versnipperd over een groot aantal cloudsystemen, datacenters en dataclusters. 

Een ‘data fabric’ biedt toegang tot data die over verschillende locaties verspreid liggen en door meerdere applicaties worden gebruikt. Ook is hiermee real time analyse mogelijk binnen een ‘verenigende datalaag’. Beheer en veiligheid worden centraal geregeld. 

  • Autonomic systems

De automatisering binnen ondernemingen versnelt. Gartner verwacht veel van ‘autonomic systems’. Dit zijn zelfsturende fysieke of softwaresystemen die van hun omgeving leren. Anders dan ‘automated’ of ‘autonomous systems’ kunnen ze hun eigen algoritmes dynamisch wijzigen zonder een externe software-update. Ze kunnen zich razendsnel aanpassen, net als mensen dat kunnen. 

Software die ‘autonomic’ gedrag vertoont, wordt al uitgerold in complexe security-omgevingen. Maar Gartner verwacht dat dit gedrag op lange termijn ook zichtbaar wordt in fysieke systemen zoals robots, drones, machines en ‘smart spaces’. Nauw verband hiermee houdt de trend van hyperautomatisering, het maximaal automatiseren van (bedrijfs)processen.

  • Generatieve ai

Generatieve kunstmatige intelligente (generative artificial intelligence) behoort tot de krachtigste ai-technieken die op de markt komen. Deze programma’s creëren uit bestaande content zoals tekst, audiobestanden of beelden geloofwaardige nieuwe content. Gartner staat niet alleen in het geloof in deze generatieve ai. 

Het Massachusetts Institute of Technology (MIT) noemde deze techniek een van de belangrijkste ai-trends in de afgelopen tien jaar. Interessant zijn de ‘generative adversial networks’. Bij deze vorm van machine learning gaan twee neurale netwerken een spel met elkaar spelen. Tegenover een generator die willekeurig gezichten genereert, staat een discriminator. Die bepaalt of dat gezicht voldoende ‘echt’ is. Met deze techniek kan je bijvoorbeeld van een foto een emoji maken. Ook is het mogelijk te laten zien hoe een gezicht veroudert.  

  • Ai engineering

In het spoor van ‘generatieve ai’ zit ‘ai engineering’, een meer geïntegreerde aanpak voor het operationeel maken van ai-modellen,

  • Decision intelligence

Beslissingsintelligentie wordt gebruikt om de besluitvorming te verbeteren. Dit kan door expliciet te begrijpen en te ontwikkelen hoe beslissingen worden genomen. Ook worden de resultaten geëvalueerd, beheerd en verbeterd door feedback.

  • Total experience

Gartner zou Gartner niet zijn om ook nog even een ‘nieuwe bedrijfsstrategie’ als trend te benoemen. Onder total experience (tx) wordt een strategie verstaan die customer experience (cx), employee experience (ex), user experience (ux) en multi-experience (mx) omvat. Als je op die gebieden scoort, ben je op de goede weg. 

Read More

Studie bevestigt leiderschap EU in open wetenschap

Met een gestage toename in de loop der jaren en een gemiddeld succespercentage van 83 procent open toegang tot wetenschappelijke publicaties loopt de Europese Commissie voorop bij de financiers van onderzoek en innovatie, concludeert het consortium van het analysebedrijf PPMI (Litouwen), het onderzoeks- en innovatiecentrum Athena (Griekenland) en de Universiteit Maastricht (Nederland).

De belangrijkste bevindingen van de studie geven aan dat het vroege leiderschap van de Europese Commissie in het Open Wetenschapsbeleid zijn vruchten heeft afgeworpen. De pijler ‘excellente wetenschap’ in Horizon 2020 – het subsidieprogramma voor wetenschap in Europa – heeft het succesverhaal aangevoerd, met een open-toegangspercentage van 86 procent. Tot de koplopers binnen deze pijler behoren de Europese Onderzoeksraad (ERC) en het programma Technologieën van de toekomst of in opkomst (FET), met open toegangspercentages van meer dan 88 procent.

Ad Notten, informatiespecialist en onderzoeker aan United Nations University Merit: ‘Wij zijn is al meer dan vijftien jaar een voorstander van Open Access publishing en hebben verschillende grote OA-gerichte studies geleid, waaronder een studie over Creative Commons en een andere die is gefinancierd door de Wikimedia foundation. Wij zijn namelijk van mening dat onderzoeksresultaten die met overheidsgeld zijn betaald, ook vrij toegankelijk moeten zijn voor het grote publiek en (her)bruikbaar voor de bredere wetenschappelijke gemeenschap.’

Daarbij gaat het volgens Notten niet alleen om publicaties, maar ook om onderzoeksdata, waarbij dat laatste een punt van aandacht is in het onderhavige onderzoek. Samen met de Universiteit Maastricht wil UNU-Merit de toepassing van Open Access en FAIR-principes binnen haar wetenschappelijke gemeenschap en haar bredere netwerk verbreden om het basisprincipe van academische integriteit te ondersteunen door middel van hoogwaardig, repliceerbaar, onderzoek en data.

Goed begrepen

“De gemiddelde kosten van een open access artikel bedragen ongeveer 2.200 euro”

Wat de artikelverwerkingskosten (APC’s) betreft, raamde de studie de gemiddelde kosten in Horizon 2020 van het publiceren van een open access artikel op ongeveer 2.200 euro. APC’s voor artikelen die worden gepubliceerd in ‘hybride’ tijdschriften (wat niet langer subsidiabel zal zijn onder Horizon Europa), hebben een gemiddelde kostprijs van 2.600 euro.

De naleving van de verplichting om open access-publicaties in een repository te deponeren (zelfs wanneer via een tijdschrift open access wordt gepubliceerd) is relatief hoog (81,9 procent), wat erop wijst dat het huidige deponeringsbeleid door de onderzoekers goed wordt begrepen en uitgevoerd.

Wat licenties betreft, is 49 procent van de Horizon 2020-publicaties gepubliceerd met Creative Commons-licenties (CC), die hergebruik toestaan (met verschillende niveaus van beperkingen), terwijl 33 procent gebruik maakt van uitgeverspecifieke licenties die beperkingen opleggen voor tekst- en datamining (TDM).

Institutionele repositories hebben op bevredigende wijze gereageerd op de uitdaging om FAIR-toegang tot hun publicaties te verschaffen, door interne processen en metadata aan te passen om de nodige wijzigingen op te nemen: 95 procent van de gedeponeerde publicaties bevatten in hun metadata een soort persistent identifier (PID).

Datasets

Datasets in repositories voldoen slechts in beperkte mate aan de eisen: slechts ongeveer 39 procent van de gedeponeerde Horizon 2020-datasets is vindbaar (d.w.z. de metagegevens bevatten een PID en een URL naar het databestand), en slechts ongeveer 32 procent van de gedeponeerde datasets is toegankelijk (d.w.z. het databestand kan worden opgehaald met behulp van een URL-link in de metagegevens). Horizon Europe zal hopelijk betere resultaten mogelijk maken.

De studie heeft ook lacunes aan het licht gebracht in de bestaande Horizon 2020-monitoringgegevens over open toegang, waardoor het nog moeilijker wordt om de naleving te beoordelen. Ook de zelfrapportage door begunstigden bracht een aantal problemen aan het licht.

Samen met de studie heeft de Commissie de hele dataset die ten grondslag ligt aan de publicatie open toegang gegeven op Data Europa EU, en heeft zij een beschrijving van de databank en het gegevensbeheersplan (DMP) voor iedereen beschikbaar gesteld voor gebruik en hergebruik.

Read More

ASML verkoopt twee dochters aan Jenoptik

ASML is voornemens twee bedrijfsonderdelen van het vorig jaar verworven Berliner Glas aan Jenoptik te verkopen omdat ze niet passen bij de kernactiviteiten van ASML. Berliner Glas Medical en SwissOptic, beide leveranciers van optische componenten voor medische technologie, gaan naar het photonica-bedrijf uit Jena (Thüringen). Beide onderdelen hebben ongeveer vijfhonderd medewerkers.

Verder presenteerde ASML vandaag de cijfers over het derde kwartaal. De chipmachinefabrikant uit Veldhoven haalde een omzet van 5,2 miljard tegen vier miljard euro in het kwartaal daarvoor. Dat is conform de verwachtingen. De orderontvangst daalde van 8,2 miljard in het tweede kwartaal naar 6,2 miljard euro in het derde kwartaal. Daarvan kwam 2,9 miljard voor rekening van euv-machines, de paradepaardjes van ASML. Iets boven de verwachtingen lag de nettowinst. Die groeide van een miljard naar 1,7 miljard euro. 

ASML houdt vast aan de prognose dat de omzet over het hele jaar met ruim een derde gaat stijgen. Voor het vierde kwartaal wordt een netto-omzet van tussen de 4,9 miljard en 5,2 miljard euro verwacht. De brutomarge is liefst 51,7 procent. ASML zet alle zeilen bij om de productiecapaciteit op te stuwen. Maar het wereldwijde tekort aan materialen en componenten wordt ook bij ASML gevoeld. 

Klanten zitten zo te springen om geavanceerde chipmachines dat de gebruikelijke acceptatietesten in de fabriek in Veldhoven worden overgeslagen. Gevolg is dat ASML de omzet pas in de boeken kan bijschrijven als een machine op locatie van de klant is geïnstalleerd. Dit betekent dat een deel van de omzet pas in het eerste kwartaal van volgend jaar boekhoudkundig is terug te vinden.

Read More

Atos komt met app voor satellietbeelden

Atos lanceert Terra², een mobiele app die data ontsluit waarmee beleidsmakers data-gedreven beslissingen rond klimaatinitatieven kunnen nemen. Deze data zijn gebaseerd op een combinatie van satellietbeelden van Mundi Web Services, een satellietplatform dat met Atos samenwerkt.

Terra² biedt gebruikers verschillende monitoring tools voor onder meer luchtvervuiling en CO2-uitstoot. Daarnaast is het mogelijk metingen in een regio of stad naar keuze te verrichten. De app bevat links naar relevante informatie en online demo’s van vijf diensten die door Mundi worden aangeboden: Greenhouse Gas Monitoring, Temperature Detection, Fresh Surface Water Monitoring, Atmospheric Pollution en Vegetation Detection. Mundi Web Services is ’s wereld grootste aarde-observatieprogramma en staat onder leiding van het Franse LSCE (Laboratoire des Sciences du Climat et de l’Environnement). 

Met de app kunnen overheden en publieke organisaties op verschillende niveaus inzichten verzamelen – van de impact van verstedelijking en stedelijke planning tot de effecten van ontbossing in verschillende landen en regio’s en het meten van de luchtkwaliteit en vervuiling. Terra² biedt data met een tijdspanne van vijf jaar, wat het mogelijk maakt om de vooruitgang gedurende de middellange termijn te monitoren.

Terra² kan gratis worden gedownload voor Android en iOS en is in zeven talen beschikbaar (Engels, Frans, Spaans, Duits, Nederlands, Italiaans en Grieks).

Read More

Integratie-expert Yenlo koopt branchegenoot Datacon

Yenlo uit Schiphol-Rijk neemt het in Nederland en België gevestigde it-bedrijf Datacon over. Met deze krachtenbundeling verwachten beide api- en integratiespecialisten op de markt een steviger positie in te nemen. De integratie van het Tilburgse Datacon in Yenlo zal geleidelijk verlopen, waarbij beide bedrijven hun gezamenlijk dienstenpakket in eerste instantie nog afzonderlijk van elkaar zullen aanbieden.

Voor Yenlo is de overname een nieuwe stap in de groeistrategie die in 2018 is opgesteld. In november van dat jaar stapte investeerder Holland Capital in om de (internationale) groei van de integratiespecialist te versnellen, zowel organisch als via overnames. In september 2020 nam Yenlo Afas-dienstverlener Fides over en nu dus applicatie-integrator Datacon. De integratiespecialist wil in 2023 een omzet van veertig miljoen euro hebben bereikt; die ligt momenteel op zo’n vijfentwintig miljoen. Door de overname van Datacon ontstaat een onderneming met 180 medewerkers.

Voor Datacon biedt de overname de kans om via Yenlo grotere internationale klanten in nieuwe markten te bereiken. Yenlo breidt op zijn beurt zijn api (application programming interface)-, integratie- en identity-management-portfolio uit. Het in 2007 opgerichte bedrijf bouwt middleware- oplossingen op basis van opensource-software van WSO2. Yenlo wil een multi-vendor-integratiespecialist worden.

Read More

NXP klaar voor tijdperk van edge computing

Chipfabrikant NXP maakt zich op voor het tijdperk van edge computing. In 2025 zal de ‘edge’ wereldwijd uit vijftig miljard intelligente apparaten bestaan. Een steeds groter deel hiervan krijgt een chip die voldoende krachtig is om het apparaat zelf besluiten te laten nemen. De komende jaren vindt een verschuiving plaats van besluiten nemen in de cloud naar de edge. Dat heeft bijvoorbeeld voor de auto-industrie grote gevolgen. Reden voor een gesprek met Maarten Dirkzwager, chief strategy officer (cso) bij NXP.

Voor de Eindhovense chipfabrikant is de trend van cloud naar edge een belangrijke ontwikkeling. ‘Want de helft van onze chips komt terecht in auto’s. En zo’n voertuig is eigenlijk het ultieme edge-apparaat,’ vertelt NXP-cso Maarten Dirkzwager. ‘Voor auto’s zijn processors nodig die een grote rijkdom aan functies aan kunnen vervullen. Deze chips moeten in staat zijn tot real time analytics en bediening. Lokale edge computing heeft als voordeel dat geen hinder wordt ondervonden van vertragingen in het netwerk.’

De veiligheid van de auto is ermee gebaat als ook de beslissingen aan boord plaatsvinden. De artificiële intelligence (ai) die precieze en snelle detectie en besluiten mogelijk maakt, werkt dan nog vlotter. Beelden van bijvoorbeeld gevaarlijke situaties worden direct herkend. Ook begrijpt de chip meteen de spraakcommando’s van de bestuurder. Ook scheelt het kosten wanneer het netwerkverkeer met een datacenter in de cloud beperkt blijft.

Rekenkracht

Inmiddels hebben de chips zoveel rekenkracht dat zelfs lastige problemen in de auto zelf kunnen worden opgelost. Het wordt mogelijk snel even een algoritme te draaien. Zeker zelfrijdende auto’s moeten heel veel beslissingen nemen. Hoe lager de ‘latency’ des te beter. De edge wint het daarom van de cloud. Voor de edge zijn echter nieuwe soorten microprocessors nodig die méér kunnen dan alleen snel rekenen en controlefuncties vervullen. Dirkzwager: ‘De processors zijn veel rijker geworden dan vroeger.’

Zo zijn in het assortiment zogenoemde applicatieprocessoren opgenomen. Dit soort chips zit vol functies voor het nemen van besluiten in de edge. Ze bestaan uit verschillende ‘enclaves’, elk met eigen taken. De ene ruimte is speciaal ingericht voor de veiligheid. Als de processor bijvoorbeeld communiceert met de publieke cloud, moet die weten dat ook echt met de cloud wordt gesproken. In deze ruimte vindt de authenticatie plaats. Van daaruit wordt de hele chip beschermd tegen indringers. Ook bevat dit deel functies die diefstal van gegevens of manipulatie moeten voorkomen.

Een andere ‘ruimte’ die er bij is gekomen, zorgt dat 3d- en 2d-graphics kunnen worden verwerkt zodat de mens-machine interactie eenvoudiger wordt. ‘Zo zijn er ruimtes voor geavanceerde audio, ervaringen waarbij meerdere zintuigen zijn betrokken en het continu luisteren. Spraakcommando’s worden meteen opgevangen. Veel aparte, parallelle verwerkingskracht is ook beschikbaar voor het draaien van ai-algoritmes. Die bepalen bij iot-apparaten bijvoorbeeld of ze onderhoud nodig hebben. Applicatiechips kunnen behoorlijk ingewikkelde ai-taken vervullen. Ze bevatten ingebouwde versnellers voor machine learning. Dit type processor heeft zowel Cortex-A als Cortex-M kernen.

Crossover

Daarnaast maakt NXP nog een uniek nieuw type chip, de crossover. Dit soort bezit alleen Cortex-M kernen. Crossovers zijn qua eigenschappen een mix van traditionele microcontrollers met de ‘peripherals’ van applicatieprocessors, legt Dirkzwager uit. ‘Anders dan applicatieprocessors kunnen ze alleen eenvoudige taken op gebied van artificial intelligence aan. Maar ze beschikken wel over beveiliging, audio en grafische mogelijkheden die essentieel zijn voor eenvoudige ai-taken.’

Dirkzwager constateert dat klanten inmiddels vertrouwd zijn geraakt met deze crossovers. Het duurt vaak twee à drie jaar voordat productontwerpen waar nieuwe chips in zijn opgenomen in hoog volume geproduceerd worden; dat punt is nu bereikt voor de genoemde applicatie-processoren en crossovers. Volgens Dirkzwager weet de chipfabrikant zich met zijn edge processors vooral qua beveiliging van de concurrentie te onderscheiden. Hij noemt de speciale enclave voor de veiligheid, Edgelock geheten, als een belangrijk pluspunt. Dit geldt met name voor de check op de juiste connectie met de cloud.

Knooppunten

“Zelfrijdende auto’s vragen om een ingrijpende herstructurering qua logica”

Voor de auto-industrie is veiligheid cruciaal. Ook komt er steeds meer ai in de auto. NXP moet daar met zijn chips op vooruitlopen. Auto’s ‘lopen’ op enorme hoeveelheden code. Het aantal programmeerregels overschrijdt heden ten dage al de 150 miljoen. De complexiteit neemt hand over hand toe. De oprukkende intelligentie dwingt tot een andere architectuur auto-elektronica. Momenteel zitten er allerlei knooppunten (nodes) in een auto die ieder hun eigen ding doen. Ze ‘praten’ niet met elkaar. Deze architectuur is ongeschikt voor mobiliteit in de toekomst.

Dirkzwager: ‘Zelfrijdende auto’s vragen om een ingrijpende herstructurering qua logica. Voor alle domeinen komen er aparte controllers: een voor de connectiviteit, een voor infotainment en ‘in-vehicle experience’, een voor comfort en welzijn alsmede een voor de aandrijflijn en voertuigdynamica. Ook is er een controller voor de systemen die de chauffeur assisteren of een deel van het rijden overnemen.’

User-defined car


Maarten Dirkzwager, chief strategy officer (cso) bij NXP

De vijf controllers zijn aangesloten op een service georiënteerde gateway. Dit is een fundamentele verandering van de architectuur; nodig met het oog op de veranderde connectiviteit tussen de chips in de auto. ‘Vroeger stroomden er weinig gegevens van de ene chip naar de andere. Nu worden veel meer data uitgewisseld. De netwerkchips kennen een grotere bandbreedte om al die gegevens te kunnen doorgeven’, aldus de chief strategy officer van NXP.

Na deze logische herstructurering met verschillende domeinen, nodig voor zelfrijdende auto’s, komt er over een jaar of vijf een fysieke herstructurering met zones. Al die zones krijgen aparte gateways die met één of meer centrale breinen zijn verbonden. Al deze veranderingen maken de ‘user-defined car’ mogelijk; een auto die zich aanpast aan de gebruiker. Wie er in de auto zit, bepaalt hoe die is afgesteld. Deze auto’s zijn niet alleen zelfrijdend maar houden ook met hun eigenschappen heel sterk rekening met de inzittenden.

Read More

Vier nieuwe partners voor DataRobot in Benelux

DataRobot, aanbieder van een platform voor ai-software (ai = artificial intelligence), breidt haar partnernetwerk verder uit. In de Benelux zijn samenwerkingsverbanden aangegaan met Cronos, GoDataDriven, MIcompany en SoftwareOne. Gekozen is voor partijen die een sterke focus op ai hebben.

Het Amerikaanse bedrijf denkt zo sneller te kunnen groeien. DataRobot heeft in België het bierconcern AB Inbev als klant. In Nederland werkt de Nierstichting met het ai-platform. Ook de gemeente Den Haag is klant.

Volgens DataRobot willen veel organisaties voordeel halen uit ai. Alleen mislukt in de praktijk een groot aantal projecten. Na het bouwen van modellen lukt het vaak niet deze te schalen. Ook ontbreekt het aan kennis en kunde om projecten in productie te brengen en ze adequaat te monitoren. 

Daarom richt DataRobot zich met zijn partners op het volledige proces. Dit start met het neerzetten van een goede strategie voor ai. Geprobeerd wordt snel de impact ervan aan te tonen. Verder moet de werkwijze worden aangepast. Daarnaast zijn ook opleiding en training nodig. De volgende stap is te kijken hoe de data-integratie tot stand komt. Bovendien moet de ai in de bestaande tech stacks worden gebracht. Dan pas kan gestart worden met het opzetten van de eerste use cases met ai die substantiële waarde opleveren.

Data-science- en machine-learning-platforms zoals DataRobot, proberen met hun tools de drempel tot de toepassing van ai te verlagen. Ool Alteryx, AWS, Cloudera, H20.ai, Dataiku, IBM, MathWorks, Microsoft en SAS Institute bieden dergelijke platforms aan.

DataRobot heeft in de Benelux tien medewerkers.

Read More

Sijbrandij wint jackpot met GitLab

Sid Sijbrandij, medeoprichter en topman van GitLab, zag gisteren zijn fortuin stijgen tot 2,6 miljard dollar. De gang van zijn softwareplatform naar de Amerikaanse techbeurs Nasdaq is een doorslaand succes.

Op de eerste handelsdag steeg het aandeel van het samenwerkingsplatform voor ontwikkelaars, dat ook tools verkoopt, met 35 procent. Bij de opening van de beurs werd GitLab gewaardeerd op elf miljard dollar. Aan het slot was dat al bijna vijftien miljard. Een maand geleden werd GitLab gewaardeerd op zes miljard dollar. In 2019 was dat nog geen drie miljard.

De 42-jarige Sijbrandij, die GitLab in 2012 met twee whizzkids uit Oekraïne oprichtte, zit wat dat betreft in een achtbaan met een uiterst grillig parcours. Jarenlang stond zijn GitLab, een virtuele plek waar it’ers met elkaar kunnen samenwerken, in de schaduw van GitHub. Dat platform werd in 2018 aan Microsoft verkocht voor 7,5 miljard dollar, de helft van wat het kleinere GitLab nu waard is.

Sijbrandij klaagde regelmatig over de grotere naamsbekendheid van zijn oudere rivaal. De Twentenaar zag in een beursgang een goed middel om de bekendheid van de ‘code hoster’ op te vijzelen. De beursgang wilde eerst niet vlotten. Aanvankelijk was deze gepland voor medio november 2020, maar Covid-19 gooide roet in het eten. Nu bijna een jaar later zijn de beurskoersen zo geëxplodeerd dat Sijbrandij weinig om die vertraging zal rouwen.

Miljardairsstatus

“Sijbrandij heeft zich jarenlang verzet tegen het ophalen van extern geld bij risico-kapitaalverschaffers”

De voormalige software-architect bij het ministerie van Justitie en Veiligheid treedt toe tot het selecte gezelschap van Nederlandse it’ers dat een miljardairsstatus verwierf. Onlangs kwam daar ook Adriaan Mol bij, die na Messagebird onder meer Mollie begon. De 37-jarige Mol heeft een vermogen van ruim 2,5 miljard dollar. Fintech-genoot Pieter van der Does (Adyen) gaat hem nog voor.

Ook Frank Slootman, in Nederland geboren maar inmiddels Amerikaan, zit daar nog ver boven. Vorig jaar stond de topman van Snowflake op 4,5 miljard dollar. Slootman zelf zei destijds: ‘Het zijn maar getallen.’

Sijbrandij heeft zich jarenlang verzet tegen het ophalen van extern geld bij risico-kapitaalverschaffers. Business Insider citeerde een paar jaar geleden uitspraken van Sijbrandij in Londen tijdens GitLab Commit. ‘Ik wist dat ik in de verleiding zou komen om extern geld op te halen. Dat doen ze allemaal. Ik zei tegen mijn vrouw: stop me als ik dat wil doen. Met durfkapitaal is de kans om op lange termijn zelfstandig te blijven veel kleiner. Ik dacht: als GitLab een beetje lukt, is dat ook al genoeg om redelijk van te leven.’

Sijbrandij stapte uiteindelijk af van zijn geloof om het helemaal alleen te doen. De beroemde Amerikaanse quarterback Joe Montana stak via zijn investeringsmaatschappij Liquid 2 Ventures veel geld in GitLab. Dat leverde beiden uiteindelijk een fortuin op. Nu moet Sijbrandij nog zien de omzet te verhogen en de verliezen tot staan te brengen. Over de eerste helft van dit jaar haalde GitLab een omzet van 108 miljoen dollar, terwijl het verlies opliep naar 69 miljoen dollar. De 1.400 medewerkers werken allemaal vanuit huis. Het bedrijf kent geen kantoren. Sijbrandij is overtuigd aanhanger van de gedachte dat een coderingsplatform zoals GitLab goed vanuit de huiskamer is te runnen. Hij bezit negentien procent van GitLab.

Sijbrandij woont in Amerika. Hij veranderde zijn voornaam van Sytse in Sid.

Read More

NXP gaat chips in AWS-cloud ontwerpen

NXP Semiconductors gaat bij het computerondersteund ontwerpen van gespecialiseerde halfgeleiders gebruik maken van Amazon Web Services (AWS). De chipfabrikant uit Eindhoven heeft AWS verkozen tot zijn voorkeurs-cloudprovider. NXP migreert het overgrote deel van zijn elektronische ontwerpautomatisering (EDA) van on-premise datacenters naar AWS.

NXP verwacht zo efficiënter chips te ontwerpen en verifiëren. Het gaat hierbij om halfgeleiders die speciaal zijn afgestemd op de vereisten van klanten in de auto-industrie. Ook levert NXP veel aan het internet of things en communicatiebedrijven.

AWS biedt meer dan alleen cloudinfrastructuur, grote rekenkracht (high performance computing) en data-opslag. Ook tools voor analytics en machine learning staan NXP ter beschikking. AWS heeft zich de afgelopen jaren beijverd deze diensten op gebied van artificial intelligence (ai) zo toegankelijk mogelijk te maken. 

Dankzij de enorme schaal van AWS is NXP altijd verzekerd van voldoende rekencapaciteit. Voordat NXP nieuwe chips kan produceren, moeten de ontwerpen uitgebreid worden getest en gevalideerd. Dit is nodig om ervoor te zorgen dat de chips veilig zijn, een hoge kwaliteit hebben en zeer goede prestaties leveren.

Tot nog toe kostte het veel tijd om een chip voor te bereiden op productie. De on-premise datacenters hebben namelijk maar een beperkte capaciteit. Via de cloud van AWS komt thans een enorme hoeveelheid rekenkracht beschikbaar. NXP krijgt zo de schaal en flexibiliteit om meerdere projecten tegelijk te draaien, ook al is de complexiteit immens. Ook de analytics- en machine learning-diensten van AWS maken het mogelijk dit testproces te versnellen. 

NXP gaat Amazon QuickSight gebruiken, een business intelligence service voor de cloud. Door de resultaten van de ene teststap snel te vertalen in aanpassingen voor de andere teststap heeft NXP minder tijd nodig om chipontwerpen te verfijnen. 

Volgens Olli Hyyppa, cio van NXP, kan zijn bedrijf door in de cloud te werken sneller innoveren en nieuwe ontwerpen eerder op de markt brengen.

Read More