freiberufler Développeur Java | Data analyst | ELK | MOA/AMOA Big Data auf freelance.de

Développeur Java | Data analyst | ELK | MOA/AMOA Big Data

zuletzt online vor wenigen Tagen
  • 80‐130€/Stunde
  • 95100 Argenteuil
  • Weltweit
  • fr  |  en  |  de
  • 29.09.2022

Kurzvorstellung

Consultant doté d’une forte capacité d’analyse des données quantitatives et qualitatives. Autonome et apprenant j'ai également un sens d’équipe et une grande qualité d’écoute. Proactif avec un esprit de créativité et de curiosité. #ReadyToHelp

Qualifikationen

  • AngularJS
  • Apache Hadoop
  • Big Data
  • elasticSearch
  • GraphQL
  • Java (allg.)
  • Jira
  • Kafka
  • Projektleitung / Teamleitung (IT)
  • SQL
  • Teradata
  • UML

Projekt‐ & Berufserfahrung

Développeur Java Big Data - Bureau d’études
LCL Banque, Paris
12/2021 – offen (2 Jahre, 5 Monate)
Banken
Tätigkeitszeitraum

12/2021 – offen

Tätigkeitsbeschreibung

Dans le cadre de l’activité Big DATA & IA, le besoin est de prendre en charge plusieurs typologies d’activités
Activité :
Études projet/évolutions en comité des architectes-data, des Chefs de projets, pour identifier et qualifier les besoins et usages métiers, et des solutions s’appuyant sur les plates-formes data Big DATA, Elasticsearch, Taratata
Construction des solutions Big DATA en collaboration avec le Project leader.
Rédaction des cahiers des charges et documents technique
Modélisation et gouvernance des données en respect de la RGPD et CNIL
Respecter les règles de sécurité et les fondamentaux Projets
Entretenir la documentation des applications

Eingesetzte Qualifikationen

Apache Hadoop, Big Data, elasticSearch, GraphQL, Jira, Projektleitung / Teamleitung (IT), SQL, Teradata

Auditeur d’Architecture Elasticsearch
PSA, Paris
12/2020 – 12/2020 (1 Monat)
Automobilindustrie
Tätigkeitszeitraum

12/2020 – 12/2020

Tätigkeitsbeschreibung

Au sein du projet PSA Retail, un besoin d’audit du socle Elasticsearch était nécessaire pour l’améliorer des performances de l’application.
Activité :
Recueil et Analyse du logiciel ainsi que du périmètre projet.
Mise en place du socle technique nécessaire à l’audit
Évaluation des données, typologie, indexation (frozen, hot), shards
Réalisation des différents scénarios de test d’optimisation et d’accès rapide à la donnée via les modules de recherches internes.
Mise en place des bonnes pratiques en termes de typologie et structure de données, des index, des shards, snapshots, cycle de vie des index afin d’améliorer les performances d’elasticsearch.
Rédaction d’un document d’audit et de préconisations en vue d’une optimisation et évolution de l’architecture

Eingesetzte Qualifikationen

Docker, elasticSearch, Microsoft Publisher, PowerShell, UNIX

Développeur Java Big Data - Elasticsearch
Banque de France, Paris
12/2019 – 12/2021 (2 Jahre, 1 Monat)
Banken
Tätigkeitszeitraum

12/2019 – 12/2021

Tätigkeitsbeschreibung

Au sein du pôle Connaissance Clients de SISPEO (ServiceS pour les Paiements et les Échanges d’Opération) anciennement SCOPE50 dont la mission première est la mise en place des domaines applicatifs de la DSB (Direction de Service Bancaire) et le développement des SI Décisionnels ainsi que des Systèmes de Lutte contre le Blanchiment, j’ai pu intervenir dès le début au sein du projet ASTRA. Le projet ASTRA construit ce socle afin de permettre le suivi opérationnel de l’ensemble des fichiers bancaires transitant au sein de la banque.
Activité :
Recueil, Analyse et conception des besoins métiers. - Mise en place d’un socle solide car traitement journalier de plus de 5 millions de données voir 20 millions.
Développement d’un batch d’analyse et traitement des échanges SCT, SDD via des transactions SEPA, MultiSEPA, BULK pour des opérations de remises d’ordres de paiement, des échanges interbancaires, de rejet, de demande de retour de fonds, correction d’information bancaire (PAIN, PACS, CAMT, ACMT), formats MINOS (retrait DAB, CB, débit, rejet, annulation), formats plats, BDF4000. Utilisation du plugin INGEST adapté.
Développement d’un module de calcul, de suivi des imputations comptables et d’annulation comptable (PACS.007) ainsi que des CRE (Compte Rendu d’Évènement) sur le socle Elasticsearch.
Définition et implémentation d’un identifiant unique par transaction afin d’assurer le rapprochement et un suivi de BeB par transaction et fichier dans l’ensemble SI Banque de France.
Mise en place et implémentation d’un système de contrôle de fichier (Alerte) en entrée et sortie d’une application par écart temps de traitement en prenant en compte les vacations (délais de traitement applicatif) et par écart temps de transfert (dysfonctionnement lié au transfert du fichier bancaire).
Définition et mise en place dans le cadre de la BAM d’un processus propre au traitement et rétention des transactions Non FR soumis à EMBARGO.
Respect de la RGPD via des processus d’anonymisation des données sensibles et mise en place d’une politique de rétention dans Elasticsearch.
Exécution des tests fonctionnels, tests de non-régression et tests unitaires.
Enrichissement des modèles de données et du dictionnaire de données.
Administration du cluster Elasticsearch, Dashboard Kibana et pipelines Logstash d'ingestion.
Mise en place de la structuration, typlogie, indexation des données et module de recherche
Rédaction de la documentation générale et techniques.

Eingesetzte Qualifikationen

Confluence (Atlassian), elasticSearch, Java (allg.), JavaScript Object Notation (JSON), Jenkins, Jira, Linux (Kernel), SQL, UML

Career Manager (Festanstellung)
CAPGEMINI, issy les moulinneaux
12/2018 – 12/2019 (1 Jahr, 1 Monat)
IT & Entwicklung
Tätigkeitszeitraum

12/2018 – 12/2019

Tätigkeitsbeschreibung

Suivi de carrière de plusieurs collaborateurs du groupe Capgemini
Encadrement et coaching des dits collaborateurs
Participation aux baromètres d’évaluation des collaborateurs pour promotion, formation et rotation de projet

Eingesetzte Qualifikationen

Management (allg.), Skype for Business (Anwenderkenntnisse), Teamentwicklung

Proxy Product Owner - AMOA Big Data
EDF, Colombes
12/2018 – 12/2019 (1 Jahr, 1 Monat)
Öl- und Gasindustrie
Tätigkeitszeitraum

12/2018 – 12/2019

Tätigkeitsbeschreibung

En étroite collaboration avec la division du Marketing, il est question de traiter la consommation énergétique (Électricité, Gaz) et la souscription/désabonnement des clients EDF via la mise en place d’algorithmes tout en appliquant la réglementation européenne GDPR.
Activité :
Recueil, Analyse et conception des besoins métiers tout en tenant compte des futurs cas d’usage.
Rédaction et validation des spécifications techniques répondant aux différents besoins.
Pilotage, chiffrage et suivi d’activité à travers différents comités.
Participation à la priorisation du besoin par valeur (Minimum Viable Product)
Elaboration des schémas d’architectures et cartographie data au sein du SI
Gestion des données et cycle de vie de la donnée - contrat d’interface
Cadrage et mis en place des règles de gestions des parcours clients et données via le datalake et elasticsearch
Mise en place des stratégies de recette (plans de tests, scénarios, JDD, exécution)
Formalisation des différents scénarii pour automatisation des tests avec Cucumber.
Amélioration de la documentation technique et mise en place de la retro documentation.
Échange constant et description technico-fonctionnelle aux équipes de développement.
Support aux équipes de développement

Eingesetzte Qualifikationen

Agile Entwicklung, Apache Spark, Big Data, Confluence (Atlassian), elasticSearch, Jira, Kafka, Motivation Projektteams, Projektleitung / Teamleitung (IT), SQL, UML

Data Analyst Elasticsearch
EDF, Colombes
12/2017 – 12/2018 (1 Jahr, 1 Monat)
Öl- und Gasindustrie
Tätigkeitszeitraum

12/2017 – 12/2018

Tätigkeitsbeschreibung

Dans une équipe full agile, je travaillais en qualité d’appui métier sur le projet @CCOST qui s’axe sur la mise en place des indicateurs, le traitement de données et la supervision de l’ensemble des applications du SI commerce sous la responsabilité du domaine marché des clients particuliers EDF. Le contexte du projet est organisé au tour de cinq activités :
Concevoir la supervision des processus du SI MCP (définition des indicateurs)
Implémenter les indicateurs dans les outils de supervision existants
Collecter, traiter et centraliser les données dans un lac de données
Piloter le projet et restituer les tableaux de bord des processus
Activité :
Recueil et analyse des besoins
Conception, Prototypage et indexation des données avec typologie efficiente
Implémentation et centralisation des indicateurs de supervision (sous l’ETL ELK)
Élaboration et réalisation des tests unitaires et des recettes fonctionnelles
Maintenance corrective et évolutive du lac de données et des indicateurs.
Industrialisation et suivi de la qualité de production de la stack ELK
Développement des pipelines d’ingestion Logstash multisourcing
Administration du socle Elasticsearch et PCA

Eingesetzte Qualifikationen

Confluence (Atlassian), elasticSearch, JavaScript Object Notation (JSON), Kafka, Motivation Projektteams, PostgreSQL, Ruby on rails, SCRUM, SQL

Consultant Java Big Data (Data Engineer)
EDF, Rueil Malmaisons
12/2016 – 12/2017 (1 Jahr, 1 Monat)
Öl- und Gasindustrie
Tätigkeitszeitraum

12/2016 – 12/2017

Tätigkeitsbeschreibung

Lot 4 du projet QUADOR (Qualité des données de références), ORGE a pour but de cadrer la démarche d’analyse d’exhaustivité du respect des référentiels de la Direction du Parc Nucléaire et Thermique (DPNT) EDF.
Activité :
Rédaction des documents techniques de l’ensemble des composants de l’application et transfert de compétences à la TMA.
Développement en Java des services REST backoffice pour CRUD via le socle elasticsearch et la base postgresql
Développement d’un batch Spark de traitement des données Hive (EAM, ECM) de l’entrepôt Hadoop vers Elasticsearch
Montée de version Elasticsearch 2.3.3 vers la 5.4.3 avec mis à jour de l’application Web java, batch Spark ainsi que des différents modules.
Utilisation de Kibana et Sense pour la visualisation des données Elasticsearch, Hue comme interface de virtualisation des workflow Oozie de l'écosystème Hadoop.
Développement des évolutions et corrections d'anomalies
Développement d’un module basé sur Sqoop pour l'import et l'export de données de base relationnel (PostgreSQL) vers Hadoop
Réalisation des tests unitaires avec Junit, Mockito, ScalaTest.
Compilation et correction de la qualité du code source avec Jenkins.

Eingesetzte Qualifikationen

Kanban (Softwareentwicklung), Apache Maven, Big Data, elasticSearch, Git, Java (allg.), PostgreSQL, Scala, Spring

Ausbildung

programmation Java - Intelligence Artificielle & Robotique
Ingénieur informatique
2016
Institut d'ingénierie informatique de Limoges (Fra

Über mich

Consultant freelance doté d’une forte capacité d’analyse des données quantitatives et qualitatives. Autonome et apprenant j'ai également un sens d’équipe et une grande qualité d’écoute. Proactif avec un esprit de créativité et de curiosité.
En plus de mon savoir-être et sens du service, mes expériences passées m’ont permis d'acquérir les compétences nécessaires à la bonne réalisation de ces objectifs de mission. J’aimerais apporter mon enthousiasme et ma créativité à proposer et mettre en œuvre des solutions adaptées à des environnements innovants et complexes. Je serais un atout pour l'équipe. Aussi j'ai une excellente connaissance Java, de la stack ELK et des technologies Big Data.

Persönliche Daten

Sprache
  • Französisch (Muttersprache)
  • Englisch (Fließend)
  • Deutsch (Grundkenntnisse)
Reisebereitschaft
Weltweit
Home-Office
bevorzugt
Profilaufrufe
329
Alter
32
Berufserfahrung
7 Jahre und 8 Monate (seit 08/2016)
Projektleitung
2 Jahre

Kontaktdaten

Nur registrierte PREMIUM-Mitglieder von freelance.de können Kontaktdaten einsehen.

Jetzt Mitglied werden