De afgelopen jaren hebben wij te maken met versnelde technologische ontwikkelingen, zoals AI, (digitale) ecosystemen en ethiek in techniek. Daarnaast hebben we te maken met opgaven voor de stad (bijv. ondermijning), toegenomen verwachtingen van de Amsterdammers, een verhoogd risico op cybercrime en eisen vanuit wet- en regelgeving. Deze nieuwe uitdagingen en hogere eisen maken dat gaandeweg verbeteren niet genoeg is. Daarom is er een strategische keuze gemaakt voor focus op digitalisering en datagedreven werken. [Detachering]
Hoe doen we dit? Fundamentele vernieuwingen vergen investeringen en systeemveranderingen. Naast een nieuwe manier van werken (opgavegericht en Agile) gaan we een modern IT fundament neerzetten. Dit IT fundament bestaat uit de Azure cloud, dataplatform met tooling (o.a. Databricks) en het standaardiseren, professionaliseren van de werkwijzes in de DevOps teams.
De kandidaat gaat verschillende datateams bij gemeente Amsterdam helpen met het migreren van hun bestaande datapipelines naar Databricks op het Azure-platform. Dit doet de kandidaat door mee te werken, te adviseren en mee te denken met de teamleden. De huidige datapipelines zijn gemaakt op basis van PostgreSQL queries en functies. Als datateams ontsluiten we niet alleen maar data, een groot deel van ons werk is ook het koppelen van data en het maken van (complexe) afleidingen. Een simpel voorbeeld hiervan is dat we vastgoed en gebiedsdata ontsluiten, we koppelen de vastgoed data aan de gebiedsinformatie, zodat we weten in welke buurt de vastgoed-objecten liggen. Daarna leiden we af welke vastgoed-objecten een woning zijn en maken we statistieken over de hoeveelheid woningen per buurt.
Het doel van deze opdracht is het begeleiden van de datateams AMI-F en AMI-P om de huidige Oracle DWH succesvol te migreren naar het Microsoft Azure Dataplatform van Amsterdam. Uitgangspunt is dat dit gebeurt met minimale onderbreking van de bestaande bedrijfsprocessen, passend binnen de nieuwe architectuur van het dataplatform en het uiteindelijk stapsgewijs uitfaseren van het huidige DWH. Deze migratie moet ervoor zorgen dat de meest belangrijke historische en actuele gegevens nauwkeurig worden overgebracht naar het dataplatform, terwijl de consistentie en betrouwbaarheid van de gegevens behouden blijven.
Tegelijkertijd wordt er gekeken naar alle huidige processen en functionaliteit binnen het huidige DWH en te bepalen in hoeverre dit mee gemigreerd kan worden. Het is voor deze opdracht daarom ook van belang om de data na bewerking (koppelen, afleiden) inhoudelijk goed te controleren, zodat we geen verkeerde statistieken publiceren. In deze functie wordt nauw samengewerkt met de andere data engineers die ook inhoudelijk veel ervaring hebben met de data. In het kort omvatten de werkzaamheden het meewerken met het team en meedenken en adviseren over hoe we van onze huidige werkwijze naar een geoptimaliseerd en efficiënt data verwerkings- en verrijkingsproces in Databricks komen. Hieronder valt ook het deployen van ontwikkelomgeving naar productie.
De data engineer levert een plan van aanpak Oracle DWH naar Azure Dataplatform in Powerpoint, Word of PDF. Daarin staan de volgende onderwerpen beschreven:
Meer weten over deze organisatie? Lees wie ze zijn en welke opdrachten ze momenteel aanbieden.