Blog

dec 02
Hoe een slechte software interface een 15 Miljoen EURO kostende VOLVO OCEAN RACE kan laten stranden

m31422_crop7_1024x576_1417469160A66B.jpg

"Huh?" hoor ik je denken? Ja echt, de crash van VOLVO OCEAN RACE deelnemer Team Vestas Wind op het rif van Mauritius kan zomaar veroorzaakt zijn door de software die de navigator aan boord gebruikt. De officiële onderzoeken moeten nog beginnen maar een eerste indruk leert mij dat deze schipbreuk het gevolg is van navigatie software met een slechte gebruikersinterface.

Afgelopen weekend is Team Vestas Wind met aan boord de Nederlandse navigator Wouter Verbraak op volle snelheid op een koraalrif gevaren. Ergens in de Indische Oceaan onderweg van Kaapstad naar Abu Dhabi ligt een archipel met eilanden waartoe ook Mauritius behoort. Deze koraalriffen liggen in heel ondiep water en zijn moeilijk met het blote oog te zien. Deze boten varen hier op hoge snelheid langs, Team Vestas Wind had een snelheid van ruim 15 knopen (iets minder dan 30 Km/u) tijdens de aanvaring en bovendien was het nacht.

Team Vestas Wind - Wouter Verbraak 

De navigator aan boord is verantwoordelijk voor het uitzetten van de juiste route. Dit doet hij in nauw overleg met de schipper die eindverantwoordelijk is. Bij het uitzetten van de route moet de navigator met heel veel zaken rekening houden, de weersvoorspellingen, de stroming, de positie van de concurrerende boten en de optimale route naar de bestemming. Vroeger gebeurde dit met de hand op basis van zeekaarten, een boel ervaring en een dosis geluk. Inmiddels wordt de navigator aan boord geholpen met zeer geavanceerde routing software. Deze software kan de navigator gebruiken om aan de hand van de ingevoerde parameters de optimale route uit te laten rekenen. De software houdt hierbij rekening met de actuele weermodellen, de stromingsgegevens en: de diepte van het water. Nou hebben we het hier niet over een zeilwedstrijd op Vinkeveense plassen of het IJsselmeer, deze race strekt zich uit over duizenden kilometers en daardoor wordt het plannen van de route een lastige zaak.

Waar is het nou misgegaan?

De routeringssoftware die de navigator gebruikt is voorzien van een zeer gedetailleerde zeekaart, en terwijl Google Maps deze eilandengroep niet eens in beeld heeft staan ze wel degelijk op de zeekaart. De beperking van deze software is alleen dat naarmate je verder uitzoomt op de kaart er steeds minder details zichtbaar zijn. Het koraalrif waar Team Vestas Wind op af koerste in de nacht van het ongeluk was dus op het scherm van de navigator niet meer dan een pixel groot. Om deze koraalriffen te zien moet je dus zo ver inzoomen op de kaart dat je het overzicht verliest. Stel je dat voor alsof je dit artikel moet lezen terwijl je ingezoomd bent op het niveau van de letters en de woorden. Dat doe je alleen maar als je ergens heel specifiek naar op zoek bent.

In de geschiedenis van de Volvo Ocean Race is dit deel van de wereld nog niet eerder bezeilt. Deze route was voorheen altijd te gevaarlijk vanwege de dreiging van piraterij uit Afrika. Voor het eerst dit jaar is deze route veilig verklaard door de organisatie. De Nederlandse navigator Wouter Verbraak aan boord van Team Vestas Wind had deze archipel met eilanden dus nooit eerder bevaren. En hoe weet je waar je naar zoekt als je niet van het bestaan afweet? Precies: niet, dat hoort de software voor je te doen. "De door u gekozen route bevat een wandeling van 1,5 Km. Weet u zeker dat u door wilt gaan J/N?"


nov 18
Hoe bouw je een hybride cloud
 
In deze sessie geeft cloud architect Bart Veldhuis praktische tips om een hybride cloud omgeving op te bouwen.

In deze sessie leer je:
1. De definitie kennen van een hybride cloud
2. Wat maakt een hybride cloud
3. Wat zijn vier typische toepassingen voor een hybride cloud
4. Welke workload gaat naar welke cloud
5. Hoe werkt een cloud beslisboom
6. Een analyse van de cloud service mapping
7. Een zeven stappen plan om te komen tot een hybride cloud
8. Een voorbeeld implementatie van een hybride cloud op basis van VMware vCloud Director en VMware vRealize Operations (voorheen vCenter Operations)
9. Hoe je ervaring opdoet met hybride cloud
10. De beveiligingsrisico’s van hybride cloud
11. De ervaringen omtrent hybride cloud

De hybride cloud is een cloud computing service die zowel de private en de public cloud omvat. Een hybride cloud kan synchroniseren tussen de public- en de private cloud en is daarmee zeer nuttig voor organisaties die er nog niet aan toe zijn om al hun applicaties naar de public cloud te brengen. 

Over de spreker: Bart is cloud architect bij één van Nederlands grootste cloud service providers en heeft met meer dan 15 jaar architectuur ervaring veel kennis en praktijkervaring opgedaan met verschillende cloud implementaties. Bart spreekt graag over technologie maar zoekt daarbij continu naar de aansluiting met de business.


nov 06
Hybrid cloud - hoe te bouwen en te gebruiken

Denk je net dat je de cloud hype helemaal begrepen hebt; wordt de volgende hype geïntroduceerd: hybride cloud. In dit artikel neem ik je mee in de business case achter hybride cloud en ook kijken we even onder de motorkap. Na het lezen van dit artikel weet je wat een hybride cloud precies is, hoe je er een bouwt, en wanneer je er gebruik van maakt.

Er is nogal wat te doen omtrent hybride cloud de laatste tijd, en niet zomaar; Gartner benoemt de (hybride) cloud als één van de top 10 IT trends voor 2015 en adviseert organisaties om samen met de software leveranciers, de architecten en de business eigenaren een multi-cloud strategie te formeren.

Wat is nou precies een hybride cloud?

Het woord hybride komt uit het latijn (hybrida) en betekent 'een compositie van twee heterogene elementen' of 'een kruising tussen twee diersoorten'. Dat laatste vind ik wel passend. Een hybride cloud is dus een kruising tussen de ene cloud soort (een private cloud) en een andere cloud soort (een public cloud). Voor een duidelijke definitie van een hybride cloud grijp ik terug op de definitie van het NIST: "Een hybride cloud is een compositie van twee of meer clouds (on-site private, on-site community, off-site private, off-site community of public), die onafhankelijk van elkaar opereren, maar worden samengevoegd door gebruik te maken van standaard technologie die data en applicatie mobiliteit mogelijk maakt". De belangrijkste kenmerken gaan wat mij betreft over de compositie en het verbindende element. Er is een verschil tussen twee losse clouds en een hybride cloud waarmee er een verbindend element tussen beide komt. Een hybride cloud maakt het mogelijk dat applicaties en data heen-en-weer stromen tussen de private cloud en de publieke cloud.

Waarvoor gebruik je een hybride cloud

Een hybride cloud heeft nut, omdat er onderscheid gemaakt wordt tussen wat intern op de private cloud draait en wat buiten de deur in de publieke (of een andere private) cloud draait.

Een hybride cloud kent een aantal voor de hand liggende toepassingen:

  1. De publieke cloud als een failover platform (disaster recovery);
  2. Het afhandelen van piek belasting;
  3. Het draaien van een project met onverwacht succes (of mislukking);
  4. De publieke cloud als test omgeving voor nieuwe applicaties.

20141024 Hybrid Cloud 4 use cases.pngFiguur 1 vier verschillende toepassingen van hybride cloud

Er zijn uiteraard meer toepassingen te bedenken, maar deze vier liggen voor de hand. Bovendien geldt voor alle vier dat ze baat hebben bij het pay-per-use model van de public cloud. Het publieke deel van de hybride cloud kan makkelijk op- en afgeschaald worden naar gelang de behoefte.

Wat drijft de business case van een hybride cloud?

Er zijn verschillende drivers achter de business case van de hybride cloud. De belangrijkste:

  1. Het kunnen optimaliseren van de belasting op de eigen hardware (private cloud);
  2. Kosten efficiency; bijvoorbeeld door gebruik te maken van de concurrentiestrijd tussen de verschillende cloud providers. Het verstandig kiezen van de provider kan veel verschil maken. In de toekomst kan dit zelfs volledig geautomatiseerd zoals een experiment met dag-handel van de Duitse Beurs laat zien;
  3. Het voordelig inrichten van disaster recovery;
  4. Het snel kunnen testen en uitrollen van nieuwe software functies.

Hoe de business case er uit ziet verschilt per organisatie. Kleinere organisaties koppelen zonder hoge opstartkosten en ingewikkelde trajecten hun clouds. Voor grotere organisaties is dit lastiger,omdat de selectie van een cloud service provider (CSP) en het inrichten van de benodigde management tooling (CMP) meer tijd kost. Ook zullen grotere organisaties meer tijd en aandacht moeten besteden aan het beoordelen van de beveiliging van de CSP en de gehanteerde processen.

Waaruit bestaat een goede hybride cloud:

Een hybride cloud moet beheersbaar zijn en hetzelfde niveau van beveiliging en service bieden als de private cloud. Hiertoe zijn er een aantal vereisten waaraan de hybride cloud moet voldoen.

vereisten voor een hybride cloud.png 

Figuur 2 Vereisten waaraan een hybride cloud moet voldoen

De belangrijkste eigenschap is dat de hybride cloud vanuit één management interface aangestuurd moet kunnen worden. Het werkt complexiteit- en kostenverhogend als er verschillende management tools zijn voor deze verschillende clouds. 

Hoe bouw je een hybride cloud

stappenplan om te komen tot een hybride cloud.png 

Figuur 3 Stappenplan tot een hybride cloud te komen

Om te beginnen: voordat je applicaties naar een externe CSP brengt moet je bepalen aan welke wet-&regelgeving je als organisatie onderhevig bent. Er is data die beslist binnen landsgrenzen of de grenzen van de Europese unie moet blijven (denk aan Wet bescherming persoonsgegevens). Daarnaast is er data die om veiligheidsredenen waarschijnlijk beter niet buiten de deur kan staan. Het bepalen van de exacte impact van de wet-&regelgeving is werk voor juristen. Al was het maar omdat sommige regelgeving zichzelf tegenspreekt.

Hierna kun je beginnen met het classificeren van data en applicaties. Welke data en applicaties zijn geschikt om naar de CSP te verplaatsen?

Vervolgens selecteer je een Cloud Service Provider. Afhankelijk van de eisen die uit het onderzoek van de jurist gekomen zijn kijk je naar een Nederlandse provider met datacenters in NL of naar een internationale speler. Let hierbij vooral op de gebruikte technologie. Anno 2014 zijn er nog geen standaarden waarmee cloud onderling uitwisselbaar wordt. Maak je op dit moment gebruik van VMware dan ligt het heel erg voor de hand om een CSP te kiezen die ook van VMware (vcloud) gebruik maakt. Gebruik je Microsoft, dan kies je een Microsoft gebaseerde cloud.

Een Cloud Management Platform (CMP) is noodzakelijk om beide omgevingen vanuit één management omgeving te kunnen controleren en aansturen. Er zijn diverse voorbeelden van CMP's. In het geval van een VMware omgeving kies je waarschijnlijk voor de gratis VMware vCloud Connector plugin die je integreert in je bestaande VMware vCenter omgeving.

Dan het belangrijkste stuk; het netwerk. Er zijn diverse mogelijkheden om het netwerk tussen de beide clouds te koppelen. Je kunt uiteraard kiezen voor een standaard IP-VPN maar dat heeft als groot nadeel dat je twee verschillende IP segmenten krijgt. Dat maakt dat iedere applicatie die je naar de publieke cloud stuurt omgenummerd moet worden.
Wil je performance? Dan kies je voor een glasvezel verbinding rechtstreeks naar het datacenter van de CSP. Dit is een optie die alleen in binnen NL zin zal hebben. Heb je meerdere vestigingen? Dan kies je voor een MPLS verbinding naar het datacenter van de CSP. Heb je geen geld voor dedicated verbindingen? Dan kies je voor 'L2 over L3' VPN. Tunnel dus je layer 2 netwerk transparant over een layer 3 netwerk.

Nu het netwerk gekoppeld is rol je alle security en monitoring tools die je intern gebruikt ook uit naar de cloud. Je wilt tenslotte dat de applicaties die je naar de publieke cloud brengt hetzelfde niveau van veiligheid kennen als de applicaties die je intern hebt draaien.

Nu ben je klaar om applicaties te gaan verplaatsen.

Nieuwsgierig? Binnenkort volgt een nieuw artikel waarin ik een gedetailleerd plan uiteenzet om een op VMware gebaseerde private cloud te koppelen aan een VMware Air Network partner. Je zult zien dat het minder ingewikkeld is dan je denkt.

Heel erg nieuwsgierig? Neem contact met me op.​

sep 16
5 steps that will get you closer to a secure (and certified) cloud.

BartMVeldhuis-ISO27001-comic.jpg

(click to enlarge)

Alright, I admit: the comic above is a little overdramatized. It is not that easy to get an ISO 27001 (Information Security) certificate. Or is it? If you want to learn more about how to really value the ISO 27001 certificates: please keep on reading.

The statements made in this article are my own and do not necessarily represent the opinion of my employer.

Surely it is not as easy as suggested in the comic strip above but still; getting ISO 27001 certified is fairly easy. That is exactly the reason why I suggest that having the ISO 27001 certificate does not necessarily mean the cloud service provider is a safe place for your data. Obviously you should avoid the providers without an ISO 27001 at all cost. They are not worth your time, let alone your data.

As a cloud architect for a large Cloud Service provider I see the demand for information security certification on a daily basis. In roughly 90% of the RFP's or RFI's that pass my desk the ISO 27001 certification is a knock-out criteria for the cloud service provider. And my question to you is: WHY?

The thing that bothers me most is that prospected customers don't ask for anything more than just a printed copy of the certificate. They are not interested in the audit report, the statement of applicability or even the scope. I would reckon they do not even look at the expiration date of the certificate. So why bother asking for ISO 27001 certification anyway?

From the cloud service provider perspective the situation is quite clear; we don't audit ourselves against the ISO 27001 standard because we think it is such a good standard. It is because our customers ask for it. If all our customers would suddenly ask for something else like: 'all services must be provided from a blue datacenter'. We would be painting our buildings today.

My point is:
Asking for ISO 27001 certification just because everyone else does it is just plain stupid. You should know why you ask for it, and also make clear to the provider which specifics you think are relevant.

So here is what you will do next time:

Step 1: request a copy of the cloud service provider's certificate and identify the Certification Body

If you are outsourcing your applications to a cloud service provider you will ask for a copy of their certificate, with all the relevant annexes that are issued with it (the annexes are relevant because they include important information with regards to the scope, the locations that are covered, etc.).

Find out who issued the certificate and find out who the national Accreditation Body is that accredited the Certification Body. You can check on www.iaf.nu if the Accreditation Body is subscribed to IAF.

Step 2: Contact the Certification Body for a cross check

Contact them via phone or their website and cross check that the certificate is still valid. Mostly this can be done via their website.

Step 3: Check the scope of the certification:

Now we know that the certificate is valid we go a bit deeper. Check that the scope covers all of the cloud suppliers business process and locations. Make sure nothing is left out. Many organizations will have limited their scope in order to safe time & cost during the implementation of the certification. You wouldn't be interested in a certificate that covers only Hosted Exchange if you are going to outsource your complete infrastructure.

Step 4: Check the date of issue and the date of expiry

This will give you an indication on the maturity of the Information Security Management System (ISMS). The longer the certification history, the more mature the ISMS will likely be.

Step 5: Check the reference to the Statement of Applicability (SoA)

There should be a mentioning of the specific version of the SoA that your cloud service provider was audited against. Some organizations may have excluded controls that you really expect to be in place. Without reviewing the SoA you would not be aware of this. If specific controls are excluded you should be warned! It is then time to start questioning the service provider and ask which controls have been put in place to compensate and provide the same level of assurance.

The Certification Body should confirm the scope, dates and version of the SoA.

Following these steps will give you a rough indication of the validity of the certificate and how it applies to your business. Still it wouldn't say much about the providers ability to keep your data safe. The ISO 27001 framework is simply not sophisticated enough to do that.

Customer Auditable

If you have the opportunity: hire an auditor yourselves and audit the cloud service provider using your own trusted auditor. Only a few providers are really customer auditable and will allow you to perform your own audit. Keep in mind that only full transparency will help you build a long lasting relationship with your cloud service provider.

ReasonNet is ISO 27001 certified and fully customer auditable. We sincerely welcome the mustaches on our customers behalf.

In a next article I will provide more inside on the man behind the mustache. For example, did you know that having a mustache is a requirement if you want to become an ISO 27001 auditor?​

aug 10
Waarom er zes verschillende type clouds zijn. Het Gartner IaaS Magic Quadrant opnieuw bekeken.

De ene cloud is de andere niet, en ook niet elke cloud is even geschikt voor elk type applicatie. Een vergissing is snel gemaakt en voor je het weet draait jouw applicatie in een cloud die daarvoor helemaal niet bedoeld is. In dit artikel tref je een handige matrix aan die je kunt gebruiken bij het selecteren van de juiste cloud voor jouw applicatie.

Om te beginnen is het goed om te snappen dat applicaties bepaalde karakteristieken met zich  meedragen. Deze karakteristieken bepalen hoe een applicatie zich gedraagt onder specifieke omstandigheden. Zo is de ene applicatie in staat om horizontaal te schalen bij hogere belasting, maar een andere applicatie misschien weer helemaal niet. Deze karakteristieken liggen vast in het 'DNA' sinds de applicatie de tekentafel verliet en zijn lastig achteraf te wijzigen zonder grote stukken code te herschrijven.

In grote lijn zijn er bij het selecteren van een cloud platform voor een applicatie met name drie applicatie eigenschappen heel belangrijk:

  1. Horizontale schaling: in hoeverre is een applicatie in staat om te gaan met hogere belasting. Kan er dan horizontaal geschaald worden ('door meer van de zelfde servers aan te maken')?
  2. Beschikbaarheid IaaS: in hoeverre is een applicatie afhankelijk van het IaaS platform (de virtualisatielaag) voor de beschikbaarheid. Met andere woorden, wat gebeurt er met de applicatie als delen van de server infrastructuur er even niet meer zijn.
  3. High Performance: in hoeverre heeft de applicatie hoge performance van het IaaS platform nodig.

(Er zijn uiteraard veel meer eigenschappen van een applicatie, maar die laten we voor dit artikel achterwege).

Als we dan vervolgens naar het applicatielandschap kijken dan onderscheiden we in totaal zes verschillende applicatie types:

  1. Native cloud applicaties
  2. E-business hosting
  3. Generieke bedrijfsapplicaties
  4. Enterprise applicaties
  5. Ontwikkel omgevingen
  6. Batch computing

Er zijn ook hier meer subcategorieën te definiëren, maar voor cloud applicaties is dit een mooi uitgangspunt (legacy applicaties en mainframe applicaties worden dus buiten beschouwing gelaten). Dit is tevens het uitgangspunt wat onderzoeksbureau Gartner in haar laatste Magic Quadrant voor Infrastructure as a Service heeft genomen. Op basis van de analyse van Gartner heb ik een verdiepingsslag gemaakt op type applicaties, omdat ik deze verdeling zeer relevant acht. Hiervoor heb ik een Cloud Service Matrix gemaakt waarbij de relatie tussen de applicatie eigenschappen en de cloud service provider wordt gelegd. Het betreft dus de onderzoeksdata van Gartner, maar dan gepresenteerd vanuit een ander uitgangspunt.

Gartner beschrijft van elk van de zes type cloud applicaties de drie genoemde eigenschappen in haar onderzoeksrapport. Als je deze applicatie-types rubriceert op de eigenschappen horizontale schaling, mate van bestandheid tegen uitval van IaaS en high performance dan kom je op de volgende matrix uit:

BartMVeldhuis cloud applicaties.jpg

Het grootste onderscheid wordt dus gemaakt met de vraag of de applicaties op de IaaS vertrouwen voor de beschikbaarheid en performance. Bij native cloud applicaties bijvoorbeeld is dit niet het geval, deze applicaties schalen makkelijk horizontaal en zijn daardoor voor de beschikbaarheid van de applicatie niet afhankelijk van de beschikbaarheid van één enkele VM. Een E-Business applicatie bestaat vaak uit meerdere webservers, meerdere applicatieservers en meerdere databaseservers, en als er eentje uitvalt wordt er door het platform automatisch een nieuwe opgestart. De gebruiker merkt hier niets van. Zoveel anders is het met generieke bedrijfsapplicaties en enterprise applicaties. Hier is de beschikbaarheid van de VM’s juist heel belangrijk omdat er in de applicatie niet voorzien wordt in clustering. Functionaliteit als VM auto-restart en VM clustering zijn dus heel belangrijk. Deze functies worden doorgaans door het IaaS platform geleverd. Voor ontwikkel omgevingen wordt er vanuit gegaan dat ze geen hoge beschikbaarheid nodig hebben en dat ook de performance nog niet belangrijk is. Dit kan natuurlijk anders zijn als er grote teams met ontwikkelaars op actief zijn. In dat geval is het verstandiger om zo-een applicatie te categoriseren als generieke bedrijfsapplicatie. Voor Batch computing geldt dat hiervoor vaak speciale processoren nodig zijn (GPU’s ipv CPU’s). Slechts 3 van de 15 onderzochte providers heeft een product waar deze GPU’s in gebruikt kunnen worden.

Dit onderscheid maakt dus dat niet alle applicaties bij alle cloud service providers even goed tot hun recht komen. Simpelweg square-peg-round-hole.jpgomdat hun infrastructuur hiervoor niet geschikt is (bijvoorbeeld het ontbreken van een cluster functie) of omdat de service level agreements niet toereikend zijn. Zo gaat bijvoorbeeld het Amazon SLA er vanuit dat er eerst een storing in meerdere availability-zones moet zijn alvorens de in het SLA beschreven beschikbaarheid wordt geraakt. Met deze eigenschap wil je bij het ontwerpen van de infrastructuur rekening houden. Gartner geeft een specifieke architectuur waarschuwing af voor Enterprise applicaties die bij Amazon komen te draaien. De afstraffing die een nieuwkomer als HP krijgt door alleen maar goed genoeg bevonden te worden voor uitsluitend ontwikkel omgevingen spreekt natuurlijk boekdelen.

Als je de door Gartner onderzochte cloud service providers afzet tegen hun mogelijkheid om de verschillende applicatie typen te ondersteunen kom je op de volgende matrix uit:

BartMVeldhuis cloud_service_mapping_big.jpg

Bij het selecteren van een cloud service provider is het belangrijk om te kijken naar het type applicatie en de karakteristieken daarvan. Die selectie gaat uiteraard wat verder dan de criteria die Gartner nu beschrijft. Je wilt bij de keuze van de cloud service provider namelijk ook rekening houden met de juridische grenzen waarbinnen je data moet blijven.

In het onderzoek van Gartner komen geen Nederlandse providers voor. Met uitzondering van een paar gespecialiseerde partijen komen de meeste Nederlandse providers in aanmerking voor generieke bedrijfsapplicaties en ontwikkel omgevingen. Sommige providers kunnen wat meer dan dat: een gespecialiseerde IaaS leverancier als ReasonNet is in staat om, met uitzondering van Batch Computing, alle applicatie types te hosten. Een gespecialiseerde partij als APS4ALL Bitbrains is daarentegen weer uitstekend in staat om batch computing applicaties te hosten. De Nederlandse providers hebben natuurlijk nog een ander uniek verkoopargument: tot op heden zijn de Nederlandse providers vrij gebleven van de dataverzamelwoede van Amerikaanse overheidsinstanties. En dat in combinatie met toegankelijkheid en lokale expertise is ook wat waard.

Bijlage 1:Definitie van de applicatie types:

  • Native cloud applicaties. Dit zijn applicaties die specifiek ontworpen zijn om op een cloud IaaS omgeving te draaien.
  • E-business hosting. Dit zijn e-marketing sites, e-commerce sites, SaaS applicaties, en moderne websites en web-applicaties. Deze zijn over het algemeen ontsloten via het Internet en ontworpen voor horizontale schaling en bestand tegen uitval van de infrastructuur.
  • Generieke bedrijfsapplicaties. Dit betreffen de generieke bedrijfsapplicaties die normaal gesproken in het interne datacenter van organisaties staan. Deze gebruiken meestal beperkte systeemcapaciteit en zijn niet ontworpen om horizontaal te schalen. Ze zijn meestal ontworpen met de gedachte dat de onderliggende infrastructuur stabiel en betrouwbaar is. Doorgaans zijn dit geen mission-critical applicaties. Voorbeelden: intranet sites, sharepoint, en vele andere bedrijfs(proces)applicaties
  • Enterprise applicaties. Dit zijn mission-critical workloads, ze zijn complex, gevoelig voor performance fluctuaties en bevatten vertrouwelijke gegevens. Ze maken meestal een (beperkt) deel uit van de applicaties die in het interne datacenter van organisaties wordt aangetroffen. Deze applicaties zijn meestal niet ontworpen voor horizontale schaling en leunen hevig op de onderliggende infrastructuur voor betrouwbaarheid en performance.
  • Ontwikkel omgevingen.  Deze workloads worden gebruikt voor het ontwikkelen en testen van applicaties. Er wordt vanuit gegaan dat deze geen hoge beschikbaarheid of hoge performance nodig hebben. Omdat ze door ontwikkel teams gebruikt worden is de monitoring en bewaking ervan wel belangrijk
  • Batch computing. Dit betreffen high-performance computing (HPC) omgevingen, Big Data analytics en andere workloads die enorme hoeveelheden capaciteit vragen. Ze vereisen geen hoge beschikbaarheid, maar wel hoge performance.


jul 09
Cloud architecten verenigt u!

CAA logo.pngHuisvrouwen hebben de vereniging van huisvrouwen, voor artsen is er de vereniging van Arts en Auto, voetballers zijn lid van de KNVB en cloud architecten hebben…. juist, niets… tot 26 juni van 2014. Want toen werd de Cloud Architect Alliance gelanceerd. Een initiatief ontstaan uit de behoefte om kennis te delen en ervaringen uit te wisselen. Als cloud architect ben je vaak een éénmansteam binnen je organisatie, en dat maakt dat je voor het delen van kennis bent toegewezen op blogs of je contacten met een concullega.

De behoefte om aan dit gemis invulling te geven ontstond bij mij al eind 2013. Ik heb een tijdje tegen het organiseren aangehikt om uiteindelijk met de hulp van Freek Beemster de eerste Cloud Architect Alliance bijeenkomst te organiseren. Voor deze eerste bijeenkomst vonden wij onze werkgevers bereid, om zonder enige vorm van tegenprestatie, de kosten van de organisatie te dekken.  Op 26 juni 2014 vond dan ook de eerste bijeenkomst plaats in The Oyster Club in Amsterdam. Bij deze eerste editie was de opkomst al gelijk bijzonder hoog, er moesten op het laatste moment nog stoelen bijgeschoven worden om iedereen een plekje te geven. De eerste bijeenkomst was voor genodigden, bekenden uit het netwerk van Freek en mij, maar de bedoeling is om dit snel uit te breiden naar een bredere groep.

Profielschets van de cloud architect

Om te begrijpen wat voor personen erachter de rol van de cloud architect schuilgaan hebben we een onderzoekje gedaan. Op basis van de door de deelnemers ingevulde enquêtes kunnen we grofweg een profielschets maken van de Nederlandse cloud architect:

Het vak van cloud architect wordt uitsluitend uitgeoefend door mannen, het tegendeel moet nog bewezen worden maar ik ben tot mijn spijt nog geen vrouw in dit vakgebied tegen gekomen. De meerderheid is jonger dan veertig jaar en heeft een HBO (of hoger) opleiding afgerond.  Certificering is belangrijk voor de cloud architect want meer dan 80% heeft relevante opleidingen gevolgd en certificeringen behaald. De cloud architect wordt over het algemeen zeer goed betaald, meer dan de helft verdient meer dan €80.000 per jaar en 25% verdient zelfs meer dan €100.000 per jaar. En dat is nog exclusief de bonussen die kunnen oplopen tot 30% bovenop het vaste jaarsalaris. De cloud architect onderscheidt zich van de systeem architecten doordat ze gewend zijn om met de business te communiceren en denken in business drivers in plaats van technische mogelijkheden. Dit verklaart gelijk waarom voor meer dan 25% van de cloud architecten deze rol een directiefunctie is. Het realiseren van kostenbesparingen, het vergroten van de organisatorische wendbaarheid behoren tot het werkveld van de cloud architect. Bijna alle cloud architecten zijn hun carrière begonnen als systeembeheerder. Deze basiskennis blijkt bijzonder relevant te zijn om de ontworpen oplossingen technisch te kunnen onderbouwen.

Mijn inschatting is dat er op dit moment zo'n 100 cloud architecten actief zijn in Nederland. Ik ken er daarvan op dit moment 45 dus als jij jezelf herkent in bovenstaand profiel, schroom dan niet om contact op te nemen.

Wat voor thema's spelen er dan?

De thema's die de cloud architecten op dit moment bezig houden zijn heel divers, voor de eerste bijeenkomst was het thema 'Automation & Orchestration van de cloud'. Het kunnen beheersen van grootschalige cloud omgevingen vereist een hoge mate van automatisering (van het automatiseren) en strak georkestreerde omgevingen waarbij zo min mogelijk handmatige acties uitgevoerd worden.

Het verregaand automatiseren van cloud omgevingen geeft weer hele nieuwe problematiek; zo verworden servers bijvoorbeeld tot 'wegwerp servers', systemen worden niet meer tot in het oneindige in stand gehouden. Voor een upgrade van de middleware of een applicatie worden simpelweg complete nieuwe systemen uitgerold vanuit de orchestration tool. Dit geeft allerlei nieuwe uitdagingen voor de omringende systemen zoals monitoring, logging & auditing,  backup & DR, IAM en performance management. Hoe hier mee omgegaan wordt verschilt per organisatie, dat maakt het dus extra interessant om te leren van andere architecten. Zo heeft Iko Saadhoff, de innovatie architect van KPN een hele duidelijke visie geschetst over de toekomst van Orchestration platformen voor cloud. Niet alleen voor KPN, maar ook voor daarbuiten.Cloud Architect Alliance - Iko Saadhoff.JPG

Een vervolg bijeenkomst van de Cloud Architect Alliance ligt voor de hand. Er is vanuit de deelnemers bijzonder enthousiast gereageerd en er hebben zich ter plekke meerdere partijen aangemeld om een eventuele volgende editie te bekostigen.

Dat er nog voldoende stof om te bespreken is blijkt wel uit de ingediende suggesties voor de vervolgsessies. De thema's die de cloud architecten op dit moment bezig houden zijn:

  • Continuous Integration van software
  • De emoties rondom cloud
  • De revolutie van OpenStack
  • De toekomst van het Operating System (met de komst van core-OS)
  • DevOps omgevingen
  • Emoties rondom cloud
  • Enterprise-PaaS platformen
  • Identitiy federation tussen clouds
  • Micro private cloud
  • Vendor Lock-in avoidance

Ik zie uit naar een volgende bijeenkomst, ken jij cloud architecten die nog geen lid zijn van onze LinkedIn groep? Neem svp even de moeite om ze op ons initiatief te wijzen.

 

Bart M. Veldhuis
Certified Cloud Architect

jun 23
Is KPN echt verantwoordelijk voor het verlies van data bij een onkundige gebruiker?

In een recente uitspraak door de rechtbank van Den Haag wordt KPN veroordeeld tot het vergoeden van de schade die een fysiotherapeute heeft opgelopen toen de harddisk van haar computer vastliep. Deze fysiotherapeute (een ZZP-er) maakte voor de bescherming van haar computer gebruik van de backupdiensten van KPN. Toen haar harddisk crashte wilde ze de bij KPN opgeslagen backups gebruiken om haar bestanden te herstellen. Ze kwam er vervolgens achter dat de inloggegevens van deze dienst opgeslagen stonden op de verloren harddisk. Ze deed wat iedere consument zou doen: ze belde KPN. En toen ging het mis. De supportmedewerker die ze aan de telefoon kreeg heeft haar een nieuw account gegeven. Haar gegevens was ze daarmee kwijt.

Ik heb de uitspraak van de rechter bestudeerd en concludeer dat deze uitspraak op één punt onterecht is en aangeeft dat het Nederlands gerechtshof onvoldoende kennis heeft om over dit soort complexe zaken uitspraken te doen. De uitspraak is namelijk tweeledig; ten eerste stelt de rechter dat KPN aansprakelijk is voor de ontstane (indirecte) schade, ten tweede stelt de rechter dat de ZZP-er gelijk gesteld wordt aan een consument en dus vergelijkbare bescherming geniet. Dat laatste vindt ik volledig terecht, maar met punt één ben ik het pertinent oneens.

De gebruiker heeft gebruik gemaakt van de backup diensten van KPN. Bij het aanmaken van deze diensten stel je een encryptiesleutel in. De gebruiker had deze encryptiesleutel op haar computer opgeslagen. Bij het verloren gaan van de harddisk is niet alleen alle data verloren gegaan, maar ook de encryptiesleutel en daarmee de toegang tot de backupdienst van KPN. Het is in die zin merkwaardig dat de rechter KPN aansprakelijk stelt voor het veroorzaken van de schade. Het is tenslotte de gebruiker die haar encryptiesleutel heeft kwijt gemaakt en niet KPN. Vanuit een technisch perspectief is deze uitspraak dus zeer eng. Het geeft aan dat een onbekwame gebruiker door de provider beschermt moet worden tegen haar eigen onkunde. Het niet veilig bewaren van de login gegevens van de dienst vormt dus nu opeens het probleem van de provider. Hiermee worden de providers gedwongen om een extra copy van de encryptiesleutel te bewaren om daarmee in geval van nood de gebruiker toegang te verschaffen tot de backupdienst. Dit is een ongewenste situatie omdat daarmee de provider ook toegang heeft tot de data van de gebruikers. Hiermee worden weer nieuwe problemen geïntroduceerd zoals toegang door de opsporingsinstanties tot de unencrypted data van de gebruiker.

Delen jullie mijn mening dat dit een zeer ongewenste situatie is?​

mei 08
De enige veilige cloud is een encrypted cloud

​Als afnemer van cloud diensten heb je met nogal wat beveiligingsrisico's te maken. De data die jij veilig denkt opgeslagen te hebben wordt ingezien door opsporingsinstanties, hackers en misschien zelfs door de medewerkers van de provider. Welke maatregelen je hiertegen kunt nemen lees je hieronder.

Eerder heb je al gelezen hoe de Amerikaanse opsporingsinstanties meelezen, archiveren en analyseren wat je allemaal opslaat in de cloud. Door gebruik te maken van een Nederlandse provider weet je tot op zekere hoogte dat de NSA niet met je meeleest. Evengoed heb je dan nog met risico's te maken, wie zegt je dat het niet de medewerkers van de providers zijn die stiekem meelezen met jouw vertrouwelijke e-mail correspondentie, of zitten te grasduinen in je database met relaties.

Is het dan echt onmogelijk om veilig gebruik te maken van cloud diensten?

Nee, zeker niet, gebruik maken van een cloud dienst is nog steeds verstandiger dan de eigen meterkast-IT. Er zijn evenwel maatregelen die je kunt nemen, begin met een veilig wachtwoord beleid en two factor authentication

De oplossing voor veilig gebruik van cloud is even simpel als gecompliceerd; versleutel al je data, van begin tot eind. Niet alleen versleutel je alle data die je over het openbare net verzend, maar ook alle opgeslagen data dient versleuteld te blijven zodat zelfs de provider er niet bij kan.

GROUND TO CLOUD ENCRYPTION

Voor versleuteling van data tijdens de verzending (in-transit) zijn de meeste technologieën wel beschikbaar voor jou als cloud gebruiker. Zo gebruiken de meeste cloud diensten SSL beveiligde webpaginas (HTTPS), of anders benader je ze via een VPN.

Het opslaan van de data gebeurt evenwel vaak nog niet versleuteld. Een typische cloud dienst als Salesforce biedt je wel de mogelijkheid om bepaalde data op te slaan in encrypted vorm. Dit beperkt zich echter tot een aantal velden, en zeker niet de complete database. Voor SaaS diensten is het heel lastig om te bepalen of data versleuteld wordt opgeslagen. Hiervoor dien je te vertrouwen op hetgeen de SaaS leverancier in zijn SLA met jou afspreekt. Controleren kun je het vaak niet.

Als je gebruik maakt van IaaS of PaaS diensten dan heb je meer controle over de encryptie mogelijkheden. Zo zou je er bij PaaS diensten voor kunnen kiezen om de hele database te versleutelen of het filesystem van de servers bij IaaS.

Ben je er dan? Nee natuurlijk niet, bij versleutelde databases en file systems heeft de provider zeer waarschijnlijk een kopie van de encryptie sleutels. Zonder deze sleutels zouden ze lastig onderhoud kunnen plegen aan de systemen. Daarnaast is het voor een kwaadwillende medewerker niet zo ingewikkeld om de encryptie sleutels te achterhalen. Tegen kwaadwillende medewerkers ben je dus nog niet beschermd.

Hoog academisch gehalte

Wil je een 100% garantie dat er niemand aan je data kan zitten? Helaas, je zult nog een paar jaar moeten wachten. Er is een namelijk een technologie in ontwikkeling die zich nu nog in de onderzoeksfase bevindt. Het gaat om een encryptiemethode die homomorphic encryption heet. Het heeft op dit moment nog een hoog academisch gehalte, maar het komt grofweg op het volgende neer:

Jij versleutelt alle data die je naar de cloud stuurt met jouw eigen encryptiesleutels. Sleutels die je verder aan niemand verstrekt, dus ook niet aan de cloud provider. De cloud provider ontvangt jouw data volledig versleuteld en behandelt deze ook zonder het te ontsleutelen. De adresgegevens van je contacten in SalesForce worden dus volledig encrypted opgeslagen. De ver- en ontsleuteling vindt op je eigen station plaats dus de provider heeft geen weet van de data die het ontvangt of bewerkt. Vergelijk dit met het in dropbox opslaan van een bestand wat je eerst op je eigen computer versleuteld hebt. Het verwerken van deze encrypted gegevens is tot op heden nog steeds lastig.

Een voorbeeld: de tekst T na encryptie = C; provider ontvangt C en gaat dit bewerken, bijvoorbeeld vermenigvuldigen met 2. Dat wordt dus 2C. Het ontsleutelen van 2C met de private keys levert niet 2T, maar een berg met onleesbare tekens. De encryptie methode moet dus in staat zijn om te kunnen werken met gegevens die door de provider verwerkt worden. Neem als voorbeeld de functie waarbij SalesForce automatisch de postcode van een opgegeven adres controleert. Dat is lastig als SalesForce de encryptiesleutels niet heeft. Homomorphic encryption maakt dit mogelijk, implementeren is echter lastig aangezien de rekenkracht die benodigd is hiervoor op dit moment nog immens is.

Wordt vervolgd dus. Met een beetje toepassing van de wet van Moore kunnen we over een jaar of twee onze gegevens versleuteld naar een cloud provider verzenden, er mee werken en opslaan, zonder dat we ons zorgen hoeven te maken over wie er allemaal bij kan.​

mei 08
Deployment Automation in de cloud

Bekijk hieronder het verslag van de inspanningen van Regas op het gebied van Continuous Deployment.​

 


apr 09
Vrijheden NSA zijn buiten proporties

'De NSA heeft veel meer mogelijkheden dan ik ooit voor moVrijheden NSA zijn buiten proporties.jpggelijk heb gehouden', aldus Richard Clarke, die in opdracht van president Obama onderzoek heeft gedaan naar het reilen en zeilen bij de Amerikaanse data-verzamelaar NSA. Clarke was voorzitter van de onderzoekscommissie die het beleid en uitvoering bij de Amerikaanse opsporingsinstanties in beeld heeft gebracht.

Dit grootschalige onderzoek werd opgestart naar aanleiding van de onthullingen van klokkenluider Snowden. Clarke was afgelopen week in Amsterdam om tijdens het Secure Cloud congres in de RAI zijn bevindingen uit het onderzoek toe te lichten aan een groep met (cloud) security experts van over de hele wereld.

Wat Clarke aantrof bij de NSA was een zeer snel ontwikkelende organisatie met (technische) mogelijkheden die zijn voorstellingsvermogen ver te boven gingen. Het onderzoeksprogramma van de NSA was groot, en bijzonder slagvaardig. Dat allemaal dankzij een enorme hoeveelheid geld. De informatie die de NSA verzamelt ter bestrijding van terrorisme, mensenhandel, de bouw van massavernietigingswapens, et cetera wordt niet alleen voor de Amerikaanse instanties gebruikt, maar ook gedeeld met 'bevriende' landen (waaronder Nederland).

Clarke heeft in zijn adviesrapport maar liefst 46 aanbevelingen aan de president gedaan om de mogelijkheden en verantwoordelijkheden van de NSA in te perken. De belangrijkste aanbevelingen (die Obama overigens al overgenomen heeft in nieuwe wetsvoorstellen) luiden:

1. Het beëindigen van programma's zonder echte waarde.
Eén van de conclusies van Clarke was dat er diverse programma's draaien die geen enkele waarde hebben. Zo heeft het programma om metadata te verzamelen van het telefoonverkeer maar een beperkte waarde, terwijl de impact op de burger bijzonder hoog is.

2. Het verhogen van de transparantie en het vergroten van de controle.
Naast de zeshonderd mensen binnen de NSA die zich al met de interne controle bezighouden dient dit te worden aangevuld met een driehoek buiten de organisatie zelf: Het witte huis, de rechtbank en het Ministerie van Justitie. Alleen door voldoende extern toezicht kan de NSA verantwoord en op een verantwoorde wijze zijn werk doen.

3. Het hanteren van dezelfde regels voor Amerikaanse burgers als voor niet-Amerikaanse burgers.
Voor Amerikaanse burgers gelden er regels over de maximale periode dat er data bewaard mag worden. Voor andere wereldburgers (zoals wij, Europeanen) gelden deze regels niet. Hiervan wordt dus data zonder eindtermijn bewaard.

4. Van offensief naar defensief beleid.
De NSA hanteert een nogal merkwaardig intern beleid. Zo is bijvoorbeeld het beleid omtrent 'zero-day' vulnerabilities in software (bijvoorbeeld operating systems) dat hiervoor exploits ontwikkeld worden voor gebruik door de NSA. In plaats van dat deze zero-day vulnerabilities met de leverancier besproken worden zodat deze een bugfix kan uitbrengen. Ook steekt de NSA heel veel energie in het ondermijnen van encryptie technologieën terwijl deze energie natuurlijk beter besteed kan worden aan promoten van het optimaal gebruik van encryptie voor data, zowel in de opslag als onderweg.

5. Eerst beschrijven wat je wilt weten, dan pas gaan verzamelen.
Nu verzamelt de NSA zo veel mogelijk informatie, daarna bedenken ze pas wat ze hiermee willen doen. Het door Obama overgenomen voorstel dwingt de beleidsmakers om eerst te beschrijven wat ze van wie willen weten en hoe ze deze informatie willen verzamelen. 

Privacy beter gewaarborgd?

Wordt onze privacy na bovenstaande wijzigingen beter gewaarborgd? Misschien een beetje, maar de NSA blijft een informatie-hongerige wolf met de technische mogelijkheden om een totale (technische) politiestaat te creëren, aldus Clarke. Volgens Clarke is het overigens niet zo dat de NSA informatie die Amerikaanse bedrijven een economisch voordeel zou opleveren verstrekt. Over de Europese opsporingsinstanties twijfelt hij of ze dit zouden doen en van de spionnen uit het oosten weet hij zeker dat dit gebeurt.

Op dit moment is het gebruik van zware encryptietechnologie de beste garantie om te communiceren zonder dat de NSA dit kan afluisteren. De vraag is echter hoelang dit nog geldt. Op een vraag van een medewerker van Google aan Clarke hoever de NSA is met de ontwikkeling van de kwantumcomputer (die zelfs zware encryptie makkelijk kan kraken) geeft Clarke aan dat deze informatie openbaar is. Of dit echt zo is zullen we echter niet snel te weten komen.

1 - 10Next