![](https://assets.isu.pub/document-structure/201021115001-bb19900adcfb4c64b39e346e1e1bc28d/v1/91102d1b95c8938f1182e3200c2a2f69.jpg?width=720&quality=85%2C50)
12 minute read
Inzicht in data biedt kansen voor de toekomst
Commvault beschermt cruciale data tijdens Zuidpoolexpedities
Inzicht in data biedt kansen voor de toekomst
Advertisement
Begin deze zomer vond het Commvault Connections Live event plaats in Amsterdam. Tijdens een van de sessies werd gesproken over Commvault’s sponsorship van de stichting ‘2041’, een organisatie die zich inzet voor het behoud van de Zuidpool en de manier waarop we over energie nadenken, energie gebruiken en die de wetgeving rond energie wil veranderen. Commvault zet zijn expertise in ter bescherming van de cruciale data die tijdens de expedities van 2041 gegenereerd wordt. Chris Powell, CMO bij Commvault, heeft begin dit jaar zelfs de laatste 100 kilometer meegelopen van de eerste klimaatneutrale expeditie naar de Zuidpool - volledig op ‘schone’ energie.
“Het opslaan en de transport van data kost stroom. Volgens sommige onderzoeken zou het totale energieverbruik van de communicatiesector in 2025 kunnen oplopen tot twintig procent van het totale energieverbruik (https://bit.ly/2wveqyw). De ongeremde groei aan data door trends als IoT en de groei van het aantal internetgebruikers in de brede zin van het woord, draagt niet bij aan een groene planeet. Om deze ongecontroleerde groei in de hand te kunnen houden, denken steeds meer bedrijven na over welke data ze wel en welke data ze niet (meer) opslaan. Dat wordt ook deels gedreven door wet- en regelgeving, zoals AVG”, aldus Bert Sluijs, Director Systems Engineering NorthWest Europe bij Commvault.
“Bedrijven moeten dit proces op een holistische manier aanpakken, zonder hun IT-omgeving complexer te maken. Denk aan deduplicatie, migratie van data naar de cloud, maar ook aan het analyseren van de data waar de storage-omgevingen vol mee staan. Bijvoorbeeld data die vijf jaar geleden geproduceerd is en nog steeds ergens opgeslagen is. Bedrijven moeten actief gaan bepalen wat daar mee moet gebeuren. Kan het weg of moet het worden gearchiveerd?
Zetten we het in de cloud of op tape? Bedrijven moeten daar een beleid voor bedenken en uitstippelen en de datamanagement-software de rest laten doen.”
Eindeloze mogelijkheden
In juli kondigde Commvault aan het uitgebreide productaanbod te herzien en te vereenvoudigen tot vier krachtige oplossingen, dat uitgebreide mogelijkheden voor back-up & recovery en databeheer combineert met een opslaginfrastructuur, service orchestration en data governance. De basis heet Complete Backup & Recovery en biedt de basis en totaaloplossing voor enterprises. Hierin zitten back-up en restore, archivering, disaster recovery, snapshots en replicatie. Bedrijven kunnen kiezen uit twee licentiemodellen: op basis van capaciteit of op basis van het aantal operating instances (servers).
Het Orchestrate-pakket is een workflowoplossing waarmee gebruikers data in elke omgeving kunnen aanleveren, synchroniseren en valideren voor bijvoorbeeld disaster recovery of voor het migreren van workloads. Orchestrate biedt bedrijven de mogelijkheid om meer waarde te halen uit data in secundaire opslag. Het Activate-pakket stelt bedrijven in staat te voldoen aan privacyregels en kan worden ingezet voor corporate governancevereisten, zoals AVG. Met dit pakket kunnen bedrijven data analyseren, privacygevoelige data detecteren en daar beleidsregels op toepassen. “Met Activate is het bijvoorbeeld mogelijk on creditcardgegevens uit een dataset te filteren en daar specifieke toegangsregels op toe te passen: de afdeling Finance heeft bijvoorbeeld wel toegang tot die gegevens, maar de afdeling Sales niet”, legt Sluijs uit.
“Door het vereenvoudigen van processen en het uitbreiden van het aantal incentives bieden we onze partners nieuwe kansen om de verkoop te stimuleren en voorzien we potentiële en bestaande klanten de ondersteuning die nodig is om zakelijke vraagstukken op te lossen”, vertelt Sluijs. De common player die de drie pijlers ondersteunt, is de add-on software HyperScale. “Onze softwarelaag biedt on-premise een cloud-achtige infrastructuur voor data-opslag en ondersteuning voor secundaire opslag. HyperScale wordt aangeboden in twee vormen: de volledige geïntegreerde appliance of alleen de software-oplossing, waarbij de klant zelf de hardware kan kiezen.”
Wel of niet in de cloud?
“Cloud is niet meer te stoppen. Alhoewel klanten vaak niet volledig naar de cloud overstappen, want sommige workloads zet je nu eenmaal liever niet in cloud, maar heb je lokaal draaien. Wij geloven dan ook in hybride oplossingen. Echter, bedrijven maken soms meer gebruik van de cloud dan ze zelf denken. Vorige maand vroeg ik nog aan iemand op een netwerkborrel: ‘Maak je gebruik van de cloud-applicaties’? Waarop hij antwoordde: ‘Nee, ik doe niet aan cloud’. Later in het gesprek kwam naar voren dat hij wel gebruik maakte van Office 365 en Teamleader.”
Sluijs kan nog een hele reeks voorbeelden noemen die laten zien dat bedrijven over het algemeen zich veel te weinig bewust zijn van hun cloud-gebruik. “Het gaat er overigens helemaal niet om of je data nou wel of niet in de cloud staat. Het startpunt is inzicht hebben in je data en je datastromen. Als je niet goed weet welke data je hebt, dan kan je die niet goed beschermen of beheren. Elke organisatie wil de controle houden over de data die zij genereren en door hun systemen worden verwerkt. Daarom is het uiterst belangrijk om helder overzicht te hebben van waar alles staat en wie daar toegang tot geeft. Data is een belangrijk en onvervangbare asset, daarom is het een logische conclusie om datamanagement als een apart werkgebied te zien en dit te centraliseren”, besluit Sluijs.
Van de redactie
groene planeet’
Patrick Keller van onderzoeksbureau BARC:
![](https://assets.isu.pub/document-structure/201021115001-bb19900adcfb4c64b39e346e1e1bc28d/v1/43d018fc6b887898284ae277f9730410.jpg?width=720&quality=85%2C50)
Volgens honderden onderzoekers loopt Europa achter als het gaat om onderzoek naar en toepassing van kunstmatige intelligentie. Om in die leemte te voorzien, zou er een speciaal Europees onderzoekscentrum moeten komen. Over kunstmatige intelligentie (AI) wordt al bijna een halve eeuw gesproken. En altijd weer doemen scenario’s op van computersystemen die beslissen en niet de mensen. Het onderzoeksbureau BARC deed er onderzoek naar en constateert een verband tussen AI en BI op Big Data-clusters.
Artificial Intelligence (AI), oftewel kunstmatige intelligentie werd lange tijd beschouwd als iets geheimzinnigs, een vorm van magie. Met de acceptatie van software als verlengstuk van het menselijke vernuft, is de ‘tovenarij’ rond AI-toepassingen verdwenen. In veel productiebedrijven vormen robots een vertrouwd beeld in de productiehallen. We vinden ze weliswaar nog niet erg intelligent, maar dat komt omdat we ze doorgaans alleen instellen op het uitvoeren van repeterende werkzaamheden. Zodra ze zijn geladen met echt menselijke expertise, gaat hun status omhoog. Als cobots laten we ze gezamenlijk met menselijke collega’s in dezelfde
ruimte aan een bepaald productieproces werken. En ieder verricht zijn taak vanuit een bepaalde competentie.
Zowel de machine als de mens beschikken over grote hoeveelheden data op basis waarvan een handeling wel of niet op een bepaald moment wordt uitgevoerd. Kunstmatige intelligentie wordt vooral door data gedreven. Het is dus ook geen wonder dat juist daarom AI weer actueel is, nu iedereen begint te beseffen dat data de olie van de digitale wereld is.
Sneller dan mensen
Patrick Keller is senior analist bij BARC, een Duits bureau dat technologietrends onderzoekt en bedrijven informeert over hoe zij hun voordeel kunnen doen met deze ontwikkelingen. Keller legt een heel duidelijk verband tussen kunstmatige intelligentie, data-analyse en de inspirerende werking van algoritmen op data.
”Bedrijven moeten zich gaan verdiepen in hoe ze met kunstmatige intelligentie hun producten en productieprocessen kunnen verbeteren”, zo zegt hij. ”Voor praktisch alle menselijke zintuigen en communicatieve vaardigheden bestaan inmiddels elektronische varianten in de vorm van sensoren en mems (micro elektronische mechanische structuren). We weten langs welke patronen ons brein leert en informatie interpreteert en zijn al in staat om die kennis onder te brengen in neurale netwerken. Uit onderzoeken weten we dat algoritmen bij patroonherkenning in beeldopnamen inmiddels hoger scoren dan mensen. In de medische sector willen ze daar hun voordeel mee doen bij het stellen van diagnoses, bijvoorbeeld in het geval van huidkanker. Google claimt zelfs in staat te zijn om aan de hand van de data achter een zevental essentiële medische parameters, het overlijden van een patiënt 24 tot 48 uur eerder te kunnen voorspellen dan een zorginstelling die de gangbare diagnosemethoden hanteert.”
Volgens Keller komen deze voorspellingen tot stand met dezelfde analytische algoritmen als waarmee de zoekgigant dagelijks z’n reusachtige volumes aan Big Data doorspit. En die aanpak vinden we volgens hem ook terug in systemen waarmee we machines bewaken om aan preventief onderhoud te doen of waarmee we knelpunten in verkeersknooppunten of in grensoverschrijdende logistieke stromen opsporen.
toepassingen verdwenen’
![](https://assets.isu.pub/document-structure/201021115001-bb19900adcfb4c64b39e346e1e1bc28d/v1/d83fc50cd5db431cff30fa7d19b334c4.jpg?width=720&quality=85%2C50)
![](https://assets.isu.pub/document-structure/201021115001-bb19900adcfb4c64b39e346e1e1bc28d/v1/a5298866a63bfe1110c5c3622a25fe9b.jpg?width=720&quality=85%2C50)
In het door BARC geïnitieerde Big Data-onderzoek laat het merendeel van de respondenten weten de analyse-instrumenten in te zetten om de gigantische hoeveelheid beschikbare data te benutten voor het maken van voorspellende modellen, voor het beter onderbouwen van de besluitvorming en voor het doorspitten van data van uiteenlopende aard. En de instrumenten doen hun werk blijkbaar goed, want bijna 70% van de ondervraagden geeft te kennen dat ze betere strategische beslissingen nemen. Ook zijn ze nu in staat hun processen te verbeteren en hebben ze meer inzicht in de ervaringen van hun klanten.
Gebrek aan deskundigheid
Problemen zijn er ook. Die hebben te maken met het gebrek aan deskundig personeel, zowel voor wat betreft de kennis van de toegepaste technologie als de analytische kwaliteiten. Ook wordt men geconfronteerd met privacyvraagstukken rond persoonsgebonden data en met de beveiliging van data.
Daarnaast spelen ook de hoge kosten voor de Big Dataanalyseomgeving een rol. Voor de eerste opslag van ruwe data, afkomstig van bijvoorbeeld sensoren of social media, geldt dat niet, want 65% van de ondervraagden gebruikt daarvoor data lakes. De op open source code gebaseerde opslag voor Big Data verricht bij 47% tevens de functie van goedkoop archief. Van de respondenten aan het BARC-onderzoek laat 36% weten dagelijks, dan wel met een lagere frequentie het Hadoop-cluster te legen, terwijl 21% ‘event processing’ toepast en indien nodig realtime via streaming voorzieningen data naar binnen haalt. ’Near-time’ is goed genoeg voor 35% om data met een vertraging van enkele seconden tot zelfs minuten over te pompen.
Keller concludeert uit het onderzoek dat kunstmatige intelligentie het nieuwe paradigma is voor bedrijven, ook vanuit IT-perspectief. De focus ligt vooralsnog op data-analyse en machine learning. Data-architecturen worden meer en meer heterogeen. Kunstmatige intelligentie gaat op diverse plekken binnen de organisatie bedrijfsprocessen automatiseren, ook wanneer het gaat om IT-processen. Interessant in dat opzicht is de uitkomst dat 46% van de door BARC ondervraagde bedrijven verwacht dat ze hun Big Dataanalysevoorzieningen kunnen inrichten via een public cloud. Nog eens 30% kiest voor een hybride omgeving en 24% houdt het op een private cloud.
Frans van der Geest is journalist
Snel grootschalig analyseren via data shards
BARC-consultant Patrick Keller was één van de inleiders bij de Nederlandse introductiebijeenkomst van IRIS, het nieuwe heterogene dataplatform van Intersystems. Het bedrijf claimt met IRIS een product op de markt te hebben gebracht dat binnen één architectuur onderdak biedt aan zowel data voor transactieverwerking, data voor analytische toepassingen en data ten behoeve van bedrijfsprocessen die realtime worden uitgevoerd.
Voor het snel analyseren van omvangrijke datasets viel tot dusver de keuze vaak op systemen met in-memory databases. Die laten zich niet zonder meer direct opschalen op het moment dat de werkbelasting en de omvang van de datasets toenemen. De keuze voor de maximale omvang van de in-memory database verkleint weliswaar het risico van gebrek aan geheugencapaciteit, maar laat in theorie nog steeds toe dat door een onverwacht tekort aan capaciteit, data verloren gaat. Bovendien is het een heel kostbare oplossing. IRIS werkt met een intelligent mechanisme voor het managen van het cachegeheugen en schrijft na een in-memory uitgevoerde bewerking, automatisch data ook naar geheugen op schijf. Onder geen beding gaan tijdens de operatie gegevens verloren, stelt men.
Een transactie van één record laat zich binnen één microseconde (0,001 milliseconden) verwerken en in-memory plaatsen om van daaruit door een query te worden benaderd. Binnen 20 microseconden staat de transactie bijgeschreven in het logboek en komt daarmee ook terecht op de harde schijf.
Schaalbaarheid ontleent IRIS aan het workload-mechanisme, gebaseerd op het al langer gebruikte Enterprise Cache Protocol (ECP) voor het onderverdelen van één monolithische database naar gedistribueerde databasetabellen in het cachegeheugen. In IRIS is hieraan Intelligent Intershard Communication toegevoegd, waardoor zeer grote volumes gedistribueerde datasets zijn te analyseren. Zo’n geclusterde sharded omgeving verdeelt de werkbelasting met datasets horizontaal in rijen. De technologie, die onder andere ook Facebook toepast, zorgt ervoor dat datapartities in specifieke, grote tabellen omwille van de snelheid en beheersbaarheid op verschillende servers zijn ondergebracht. Ze worden aangeduid als data shards. Wanneer een veelgebruikte analysetoepassing queries op een geclusterde data-omgeving afvuurt, laat IRIS de shard master de queries opdelen en verspreiden over de data shards voor parallelle uitvoering. Daarna aggregeert de shard master de verschillende resultaten en levert die in zijn geheel terug aan de betreffende analyse-applicatie. Onderling kunnen de shards data uitwisselen zonder de shard master erbij te betrekken.
Data laat zich binnen het platform zowel in een relationele structuur (SQL) opslaan als in een object-georiënteerd model met een synchronisatie-mechanisme tussen die twee omgevingen. Het dupliceren van data kan achterwege blijven, evenals een representatie van het proces (mapping) van object naar relationeel. De mogelijkheid om het meest geschikte formaat en representatie-model toe te passen, zorgt voor flexibiliteit in de fase van systeemontwikkeling, voor een hoger prestatieniveau tijdens de operationele uitvoering en voor minder complexiteit bij het beheer.
www.scos.cloud Secure Managed File Transfer
![](https://assets.isu.pub/document-structure/201021115001-bb19900adcfb4c64b39e346e1e1bc28d/v1/458476f8fa1d18d1bc11616997c59ff7.jpg?width=720&quality=85%2C50)
![](https://assets.isu.pub/document-structure/201021115001-bb19900adcfb4c64b39e346e1e1bc28d/v1/72f96ff47a9417f4d48c404ca254edea.jpg?width=720&quality=85%2C50)
Hosted in West Europe – Middenmeer/The Netherlands. Ipswitch MOVEit Cloud is a SaaS version of MOVEit Transfer
Ipswitch MOVEit Cloud delivers the company’s industry-leading Managed File Transfer (MFT) system with all the benefits of cloud computing, including: • reliability • elasticity • and rapid deployment
In an era of high-visibility security violations, scos.cloud leads the industry in security and integrity.
scos.cloud protects your most valuable asset – your data – by incorporating essential security measures for cloud services.
Hosted at a world-class data center facility (ISO/IEC 27001 ) compliant that is engineered to incorporate multiple levels of security and redundancy for optimal • reliability • availability • business continuity and it’s all managed by MOVEit experts.
![](https://assets.isu.pub/document-structure/201021115001-bb19900adcfb4c64b39e346e1e1bc28d/v1/17056d9be66b9b431f1769b5637061a1.jpg?width=720&quality=85%2C50)
Start your Cloud MFTaaS now with one of our MFT experts.
Secure MFT • Secure Email • Ad Hoc Transfer • Automate File Transfer • MFTaaS