Roland Kamphuis Rotating Header Image

Posts Tagged ‘interdc’

F1 Grand Prix Spa België

Een collega had F1 kaarten gewonnen bij een leverancier door de beste tijd te zetten in een race simulator met VR bril. Mijn beide collegas waren helemaal weg van die sim en hadden snel hun tijden neergezet. Ook ik moest eraan geloven en heb een rondje in de sim gemaakt. Was direct 2e geworden! Maar mijn collega kon het niet laten om nog een keer een rondje in de sim te maken en mij net van de 2e plek afzetten. En toen kwam de prijsuitreiking: daar hoorde we dat eigen personeel niet mee mochten doen en daardoor vielen een paar tijden weg, dus daar stonden we dan, heel InterDC met 1 2 3 op het podium!

Mijn collega had de tickets gewonnen maar was wel zo lief dat ik met hem mee mocht naar de F1 in Spa. Echter maakte onze leverancier het wel heel spannend toen we een week voor de F1 onze kaarten nog niet hadden ontvangen. Zelfs de vrijdag voor het evenement waren de kaarten niet binnen. De leverancier was zelfs zo lief om zaterdag meerdere keren te checken of de kaarten al binnen waren en rond 18.00 dachten ze dat ze opgelicht waren. Maar om 20.45 kwamen dan uiteindelijk toch de kaarten binnen. Gelukkig had ik al zelf een parkeerkaart geregeld want anders kon het feest alsnog niet doorgaan.

Met een lange rit van 3 uur rijden en 20min tesla laden kwamen we aan. Geen file, en lekker op het weiland parkeren. Met 2 km lopen stonden we op het parcours. Wat een mensen zeg! Gelukkig gaven de tickets toegang tot de speedrun tribune met plaatsen direct op de eerste rij. Dus premium seats! Dat gaf een erg mooi beeld op de baan! En zo gaf F1 kijken een hele andere beleving!

De terugweg verliep ook redelijk, niet direct file maar wel een hele parcours die ze af hadden gezet hoe je via slingerwegen over de Ardennen werd gevoerd om zo zo min mogelijk opstoppingen te geven.

Eaton Technodag Datacenters

eaton_logoOp de Storagefocus ben ik in contact gekomen met fabrikant Eaton. Eaton is een bedrijf wat een scala aan elektra producten kan leveren. Ik was voornamelijk wel geïnteresseerd in hun UPS modellen, met name de 93PM. Daar kom ik later op terug, want er bestaat een kansje dat ik dit model ga aanschaffen als vervanging voor de bestaande UPS in InterDC.

Via Eaton werd ik en collega Christian uitgenodigd voor hun relatiedag genaamd ‘Technodag Datacenters 2013’ in Hengelo. Agenda bestond uit een aantal interessante presentaties en een rondleiding door hun fabriek en Lab.
De presentaties zal ik je besparen, ging voornamelijk over de producten en ontwikkelingen bij Eaton, en een aantal gastsprekers over gerelateerde datacenter onderwerpen.
De rondleiding door het onafhankelijk Lab op het terrein van Eaton was zeer interessant. Daar hadden ze diverse proeven voor ons klaar staan die we konden bekijken. De mooiste proef was een kortsluitingsproef op 700 volt met 25.000 ampère. De kortsluiting veroorzaakte ze door een koperdraadje om de 3 fases heen te binden.

Neem even de tijd om de film te bekijken, nadat het alarm afgaat wordt de stroom ingeschakeld.
Om de test uit te kunnen voeren hebben ze een soort eigen aggregaat staan om de stroom op te wekken. Op die manier hoeven ze de stroom niet van het echte net af te tappen, want dan zou het net vervuilt raken en meer mensen om zo’n moment als deze last hebben van geknipper in het net.

Als laatste kregen we nog een rondleiding door de fabriek van Eaton. De fabriek in Hengelo bleek nog best groot te zijn, we moesten een flink stuk lopen om door alle hallen heen te komen. Onderweg zagen we indrukwekkende machines aan het werk. Zo werd er met een speciaal hars bepaalde componenten ingegoten, een robot die heel snel gaten maakt in dik metaal en medewerkers aan het werk die de producten assembleren. De producten die ze maken in Hengelo is maar een klein deel van hun totale assortiment.

eaton_rondleiding_fabriek

Medewerkers van Eaton bezig met assembleren van een elektronica schakel kast

De zeer geslaagde dag werd afgesloten met een borrel. Ook werd er een foto gemaakt van het gezelschap.

eaton_technodag_2013

Groepsfoto Eaton Technodag Datacenters 2013, rara waar staan Christian en ik?

Radio interview over hack SIDN

Afgelopen donderdag kreeg ik een mailtje van EnschedeFM met de vraag of ik in de uitzending wou komen en wat meer kon vertellen over de hack van SIDN. SIDN was namelijk de dag ervoor gehackt en in het radio programma #deverbinding wouden ze daar even aandacht aan besteden. Gezien ik goed contact heb met TV Enschede FM, deelnemer van SIDN en ook gevestigd in Enschede was het ook niet een gekke keuze om mij uit te nodigen.

Ik was via telefoon live in de uitzending diezelfde middag (11 juli 13), en ik vond het interview prima verlopen.

Luister naar het fragment:

tvenschedefm

Timelapse film over bouw InterDC

Bijna 2 jaar na opening van mijn datacenter heb ik eindelijk alle beelden verzameld om een timelapse op te stellen. Een timelapse is een film waarin de beelden versneld afgespeeld worden.
Het samenstellen van de timelapse was meer werk dan ik dacht. Het werk zat hem voornamelijk in het uitzoeken van alle beelden. Ik heb namelijk alle beelden verwijderd wanneer er niks te zien was. Zoals bijvoorbeeld de weekenden, vroege ochtenduren en avonden, maar ook tussenin wanneer bijvoorbeeld alle bouwvakkers naar buiten stapten om te pauzeren. Ik denk dat ik door een 140.000 beelden wel ben heengelopen en zeker wel de helft heb verwijderd voor de film.

In de timelapse heb ik van bijna 4 maanden beelden verzameld. De camera’s hebben nog wel veel dagen beelden gemaakt maar die zijn net niet interessant genoeg om toe te voegen. Bovendien had ik daaraan nog meer extra uitzoek werk gehad. Wellicht dat ik ooit nog in de toekomst dat doe. Kan ik wellicht een moeite timelapse maken van hoe de racks allemaal gevuld zijn. Op deze timelaps zie je in het eerste racks de switches en router hangen, en in rack 2 zijn net 4 servers verzameld en opgehangen. Die had ik al namelijk al tijdens de laatste fase van de bouw opgehangen omdat sommige klanten niet konden wachten ;).
Inmiddels hangen er 80 servers van ons in InterDC, dat is exclusief colo servers van klanten.

Film aanleg glasvezel InterDC

Nadat bijna 2 jaar het filmmateriaal van de aanleg van de glasvezel van interdc op de plank heeft gelegen heb ik toch besloten een mooi filmpje te maken.
Ik was zeer verbaasd dat er verschillende websites zijn waar het mogelijk is om (commerciele) rechten vrije muziek te downloaden. Ik dacht dat je dan zelf iets in elkaar moest componeren of toevallg een band moest kennen. Youtube zelf bied ook een dienst aan om muziek toe te voegen aan je filmpje, maar het nadeel daarvan is dat je verplichte reclame krijgt en bovendien kan je niet het geluid bewerken op basis van je film inhoud.

Met wat hulp van collega’s Christian en Andy hebben we samen het volgende filmpje samengesteld:

Kantoorservers naar datacenter

kantoorservers

Oude situatie kantoorservers

De servers voor ons kantoor stonden tot voor kort gewoon bij ons op kantoor. Met de komst van ons eigen datacenter hebben we eigenlijk nooit de moeite genomen om de servers te verplaatsen. We hadden wel de internelijn doorgetrokken en daarmee verviel de behoefte om de kantoorservers te verplaatsen. De kantoorservers hadden we heel netjes onder de trap opgesteld in een een net 19 inch rack. Omdat de locatie van de servers een beetje verscholen was wou ik geen foto’s publiceren. Nu in het datacenter zijn er voldoende sensoren, detectoren en camera’s die de veiligheid garanderen.

Waarom alsnog de servers verplaatsen?
Tijdens het bekijken van de jaarafrekening van de energieleverancier kwam ik erachter dat het 10 euro per maand aan stroomkosten bespaard als we de servers in het datacenter plaatsen. Die 10 euro is zelfs wat overblijft na aftrek van het extra stroom benodigd voor de koeling en ups.
Daarnaast hebben we in de zomer een probleem dat de servers op kantoor te warm worden doordat er geen airco aanwezig is.

Hoe kan de stroom nog geen 5 meter verderop goedkoper zijn?
In ons datacenter zijn we een grootverbruiker, en daarmee kan je een scherper tarief krijgen. Hoewel dit deels waar is, is dit prijsverschil nog te minimaal om de grote besparing te maken. De grote besparing zit hem namelijk in de energiebelasting die de overheid heft over de stroom. Als je namelijk > 10.000 kWh verbruikt zakt de belasting met de helft per kWh. Verbruik je meer dan 50.000 kWh/jaar, is de energiebelasting nog maar een tiende van het origineel.
Op kantoor is ons stroomverbruik minder dan <10.000kwh, terwijl in ons datacenter het stroomverbruik >50.000 kWh is. We besparen een 9 cent per kWh, dat is bijna de helft van de prijs die we op het kantoor betalen.

Het eindresultaat van de kantoorservers:

kantoorservers_interdc

Onze kantoorservers in InterDC

 

Van boven naar beneden:

  • HP 3400cl Switch
    (Gbit switch)
  • HP micro Proliant server
    (Storage)
  • Monitor
  • Supermicro Server
    (VPS server, Dual Quadcore 2,4 Ghz, 24GB ram, 2x1TB HDDs)
  • Chenbro Server
    (Windows server 2008, Share + Domain controller)
  • APC 1KvA UPS
    (Noodstroom)

Thermo Scan Enschede

Vandaag las ik in de krant (van gister) dat er van de gemeente Enschede (en Losser) een “Thermo scan” is gemaakt. De thermoscan is gemaakt door een vliegtuig die een aantal keer over de gemeente heeft gevlogen met speciaal apparatuur om precies in kaart te brengen hoe warm de huizen/objecten zijn. Daarmee kan prima gekeken worden of een huis goed geïsoleerd is of niet.

Ik bezocht direct de website want ik was benieuwd of je wat kan zien van de hitte van mijn dataruimte. En uit de beelden blijkt ons pand erg goed geïsoleerd te zijn. Op onderstaande foto kan je zien dat nr 30 het hele dak blauw heeft, en waar de dakkoepel zit een streep groen te zien valt. En dat te bedenken dat de servers een warmte van +- 30 graden uitstoten. Natuurlijk koelt de airco wat weg, maar de warme lucht stijgt ook deels omhoog.

De scan is uitgevoerd in februari 2012, toen we die extreme koude dagen hadden dat het gemiddeld -10 graden was.

IceHosting 8 jaar

Vergeet ik bijna te vermelden dat IceHosting afgelopen maandag 8 jaar is geworden. Ik ben op moment heel druk bezig met de nieuwe website voor IceHosting, en had gehoopt die precies op de verjaardag van Ice online te krijgen. Maar dat blijkt toch allemaal wat meer werk te zijn, en je kan beter de site perfect lanceren dan met typefouten, niet werkende linkjes en lelijke plaatjes ed.

Afgelopen jaar hebben we de voorzieningen in ons datacenter flink uitgebreid (Ups en Ups ruimte, bypass, toegangscontrole, branddetectie). We zijn nog niet helemaal klaar, maar we zijn nog maar een klein stukje verwijderd om officieel tier3 te mogen heten.
Op gebied van servers hebben we de backupservers in Amsterdam en Enschede vervangen. Met een opslag van 9 TB in Amsterdam en 4,5TB in Enschede. Dat allemaal in een nette raid5 set verwerkt.

In komend jaar zullen we ons cloud vps dienst gaan lanceren. Ook ligt de focus op helderheid, snelle support en klantvriendelijkheid. Beginnend met de nieuwe website, daarna moet ons bestelsysteem vervangen gaan worden en gaat er een mobiele app komen voor onze klanten.
Bij de verjaardag hoort natuurlijk ook taart. Op naar het 9e jaar!

Eerste printplaatje samengesteld

Voor het toegangscontrole systeem in InterDC heb ik zelf het eerste prototype PCB bedacht en gesoldeerd.Het is een hele basis versie, met eigenlijk maar 3 onderdelen, maar voor mijzelf heb ik een mijlpaal bereikt. Ik wou in eerste instantie de componenten op een breadboard zetten en dat bij de microcontroller gaan plakken. Een eigen PCB is toch net iets netter en past prima naast de microcrontroller in een klein plastic behuizing (die ik op eBay heb gevonden).
Dit boardje schakelt de magneetschakelaar en leest de status van de deur exit schakelaar. Ik ben inmiddels alweer bezig met een groter bordje waar meer functionaliteiten opkomen. Bovendien moest ik eerst een manier bedenken hoe ik de connectoren uit de behuzing kan laten steken. Na lang zoeken ben ik een sort “com poort” tegen gekomen die je prima op de pcb kan solderen. Met dupunt stekkers kan je dan de signaalkabels aan het printje hangen. Zodra dit boardje af is komt hij ook op mijn blog maar ik moet eerst nog wachten op wat onderdelen.

Ps: de techneut heeft de fout al gezien op het bordje. Ik schakel mijn transistor met een 1k ohm weerstand, wat uiteindelijk een veel te laag vermogen geeft voor mijn magneet spoel. Ik heb hem inmiddels al vervangen met een lagere weerstand.

IceHosting / InterDC team in pak

Afgelopen week hadden we zorgverzekeraar Menzis op bezoek. Menzis had interesse in afname van rackspace in het InterDC datacenter. Vandaar dat het hele team deze dag in pak moest. Hieronder een foto.

InterDC: toegangscontrole

Eindelijk is hetzover, ons datacenter is nu ook 24/7 toegankelijk. Ik ben wel een jaar bezig geweest om het concept uit te denken en uit te werken. Gezien er laatst een belangrijke potentiële klant langs kwam heb ik even tempo achter dit onderdeel gezet.

We werken met een pasjes systeem zoals meeste datacentra’s maar wat ons systeem zo uniek maakt is dat alles direct op ethernet aangestuurd en gevoegd wordt. We hebben het zelfs voor elkaar te krijgen om de deur motor mee te laten draaien op de POE (Power over ethernet) van de microcontroller die ook de paslezer aanstuurt. Dit geeft ons het grote voordeel dat alle accescontrol componenten automatisch achter de UPS en toekomstige aggregaat staan. Bij een stroomstoring blijven alle toegangscontrole componenten gewoon doorwerken.

Op moment hebben we alleen de buitendeur af, en met een maand verwachten we ook alle deuren binnen met een paslezer en motor te hebben uitgerust.

De 2e toegangsdeur bij ons is interessant, die heeft namelijk geen paslezer gekregen. Nee, daarvoor hebben we een 22inch touchscreen opgehangen zodat klanten een unieke bezoekcode moeten invullen. Deze unieke code wordt per bezoekaanvraag naar de klant verstuurd. Tussen de eerste deur en de 2e deur zit alleen een stuk gang, en hierdoor hebben we dus een soort sluis gecreëerd.

InterDC: Branddetectie test

Het branddetectie systeem is van deze week geïnstalleerd in ons datacenter. Ik heb gekozen voor het merk Xtralis voor de bekende VESDA installatie.  Vesda staat voor very early smoke detection aparatus en houd in dat via een buizennetwerk een luchtmonster wordt genomen, getransporteerd, en door een laser bekeken of er rook of andere ongewenste deeltjes in voor komen.
In geval van een ongewenst deeltje slaat het apparaat alarm. Doordat Vesda heel precies naar de luchtdeeltjes kijkt, kan Vesda een brand zien aankomen voordat het een brand is. Op internet staan veel tests en vesda bewijst dat een beginnende brand vaak binnen 1 minuut gedetecteerd wordt, waar normale brandmelders 9 tot 25 minuten voor nodig hebben.

Nadat het apparaat en netwerk geïnstalleerd was, moesten we natuurlijk even testen. Onderstaand een test film gemaakt op de dag van in werking stellen.

We hebben aan de Vesda een ethernet module opgehangen zodat wij ook direct via telefoon op de hoogte gebracht worden.  Gezien het output ethernet is, kunnen we nog talloze systemen en functies aan de brandmelder koppelen.

Nieuw stroomnetwerk in InterDC

Begin april is onze elektricien al begonnen met het gereedmaken van het nieuwe elektra netwerk. Ik zal in het kort uitleggen wat er veranderd is.

Oude situatie
Stroom komt ons pand binnen wordt direct verdeeld en gaat naar de racks toe. In de racks hangt een 3u UPS van Apc die voor 30-40min noodstroom voorziet.

Nieuwe situatie
Stroom komt ons pand binnen en wordt als eerste naar de achteren geleid. Daar gaat de stroom eerst langs de toekomstige noodstroomaggregaat en wordt de stroom verdeeld over 2 stroomfeeds (verdeeld over de 3 fases). Een van de feeds gaat langs onze Ups. Vanaf daar gaat de stroom naar de racks.
Bij de schakeling door de UPS hebben we een by-pass paneel aangelegd, zodat we in de toekomst eenvoudig meer upsen kunnen toevoegen en onderhoud kunnen plegen zonder dat we de stroom hoeven te onderbreken!
Daarnaast zijn alle kabels alvast gekozen voor het maximale stroomverbruik zodat we deze niet meer in de toekomst hoeven te veranderen.

Nu de nieuwe situatie is afgerond kunnen de kleine upsen in de racks weggehaald worden. Wel laat ik de kleine UPS in de swtich/router rack hangen voor extra noodstroom.

De nieuwe UPS die achterin staat is een APC Galaxy 5000 UPS, welke goed is voor 30 kasten van stroom te voorzien. Mochten we 30 racks vol hebben kunnen we zonder onderbreking een 2e en een derde (n+1) unit toevoegen. Op moment geeft de Galaxy 5000 ons een accutijd van 1 uur en 17 minuten.

Tot slot hebben we ook de stroomfeeds aangelegd voor de 2e rij racks (2 feeds per rack, non-break & short-break).

Overstappen
Het moment van overschakelen tussen de oude voorziening naar de nieuwe stroomvoorziening vond plaats op 18 mei. Gedurende anderhalf uur hadden de racks geen stroom. Dat betekend niet dat het apparatuur offline ging. Met een flink aantal tijdelijke kabels midden door de gangpaden heen konden we het gat overbruggen. Het omschakelen leverde ook geen downtime op omdat de racks allemaal een eigen UPS had die een half uur stroom capaciteit had.
Totale downtime operatie: 0 min, 0sec.
Wel waren er 2 servers tijdens de hele operatie plotseling vastgelopen. De vraag is of dat pure toeval is of ergens een verband gelegd kan worden.

Nadat de servers over waren was het tijd om de airco over te zetten. Die ging gelukkig wat sneller omdat de nieuwe kabels al klaar lagen. En na een 5 min zonder koeling te hebben gezeten draaide de airco weer op volle toeren.

Vervolg
Om de 2e fase af te maken staan er nog 2 actiepunten open:
– Branddetectie systeem (VESDA)
– Acces control (zelfstandige toegang d.m.v. pasjes)
Beide punten zijn al in gang gezet.
En mocht het meezitten wil ik ook het noodaggregaat eind zomer hebben staan.

Voor nu een aantal foto’s:

 

InterDC: Schilderwerk v2

Ook ikzelf steek regelmatig mijn handen uit bij de bouw van het datacenter. Zo heb ik vandaag en gister alle wanden wit geschilderd die nog niet behandeld waren. Dit was de complete achterwand, een aantal kozijnen en naast de toegangsdeuren naar het datacenter zat nog een stukje groen. Bij elkaar een 30-40 m2.
Ik hoopte dat met 1 laag alles goed was, maar helaas moest ik een 2e keer over alles heen. Totaal is er 10 liter verf er doorheen gegaan, maar het resultaat mag er zijn.

InterDC: UPS bypass paneel

Eindelijk weer eens een post over InterDC. In februari heb ik de 2e bouwfase gestart van ons datacenter. Dat houd in dat de 60Kva (reeds aanwezig) aangesloten moet worden. Daarbij moest het hele stroomnetwerk veranderd worden. Eén van de key-elementen van het nieuwe stroomnetwerk is het bypass paneel. Dit is een paneel waarmee we de UPS met 1 schakelaar uit de stroomkring kunnen halen ZONDER STORING. Ofwel dit is een flink staaltje techniek wat een flink prijskaartje heeft. Het bypass paneel is op maat gemaakt, want we wouden totaal 3 ups-en eraan kunnen hangen, zodat we in de toekomst makkelijk nog 2 nieuwe ups-en kunnen toevoegen.

Wij hebben afgelopen vrijdag eindelijk het bypass paneel binnengekregen en daarmee zijn alle onderdelen binnen om de upgrade te starten. Hieronder een foto van het paneel.