Fondée en 1875 par des chefs d’entreprise du Nord - Pas de Calais, l’Université Catholique de Lille est un établissement privé associatif d’intérêt général. Elle accueille 26 000 étudiants. Elle regroupe des Facultés, des écoles et Instituts, des Grandes Écoles d’ingénieurs et de management et des hôpitaux ce qui permet à l’Université d’être une des rares universités en France aussi complète par ses compétences et ses approches. • Les facultés : Droit et Sciences Politiques ; Lettres et Sciences Humaines ; Théologie ; Médecine et Maïeutique ; Gestion, Économie et Sciences. • Les grandes Écoles : des écoles d’ingénieurs (Groupe HEI + ISA + ISEN, ICAM) et des business school (Edhec, Ieseg, Estice…) • Des hôpitaux et des EPHAD…
Ecosystèmes innovants Dans un monde en transition qui passe d’une économie centrée sur l’efficacité productive à une économie centrée sur l’intensité créative, l’Université Catholique de Lille a fortement investi sur la thématique de l’innovation. Pour mener à bien son projet, des écosystèmes d’innovation ont été créés : HUMANICITÉ, les ADICODE, les LABs et le Laboratoire d’anthropologie expérimental... Plus de 3000 m² d’écosystèmes innovants ont été ainsi créés favorisant l’innovation co-élaborative ouverte basée sur les usages. Au cœur des rencontres improbables, ils permettent à l’Université Catholique de Lille d’être identifiée clairement à l’échelle mondiale sur ces questions.
Big data Dans ce contexte, la thématique du Big Data est devenue incontournable et suscite une implication de toutes les disciplines. Accompagnées par de nombreuses entreprises et principalement par le Crédit Agricole Nord de France, les équipes de recherche de l’Ieseg, du département d’éthique, de la Faculté de Droit et du groupe HEI/ISA/ISEN s’investissent sur le sujet pour apporter une approche transversale et complète de la question. DP/FD/FV décembre 2015
FORUM BIG DATA w w w. fo r u m b i g d a t a . f r
Eden Forums, à l’initiative du Forum Big Data depuis 2013 Nous avons le plaisir de vous présenter la 3ème édition du Forum Big Data en partenariat avec de nombreuses écoles d’ingénieurs, d’universités et d’institutions. L’association de ces acteurs nous permet de proposer des conférences techniques et de qualité suivies d’un forum de recrutement convivial apprécié par l’ensemble des participants. Quant aux entreprises présentes, elles sont prestigieuses et toujours plus nombreuses à y participer. Nous remercions leurs intervenants, DRH, experts Big Data ou opérationnels qui sont passionnés par leur activité et partagent avec enthousiasme leur expérience auprès des étudiants et jeunes diplômés. Suite à l’implication croissante de l’ensemble des acteurs associés au Forum Big Data, entreprises et étudiants, il nous a semblé indispensable d’en développer le concept à travers d’autres campus en France. Nous inaugurons ainsi cette année les éditions de Lille et de Lyon avec la mobilisation de nombreux écoles et universités qui se sont fortement impliquées pour la réussite de ces événements. Eden Forums s’est fixé pour mission d’accompagner les jeunes talents dans leur rencontre avec les entreprises technologiques prêtent à recruter les experts de demain. Elles ont déjà choisi d’anticiper de nombreux défis liés au Big Data tels que l’infrastructure, l’analyse, la cyber-sécurité ou encore le cloud. Le Forum Big Data répond à un challenge supplémentaire : le recrutement d’ingénieurs passionnés, compétents et talentueux. Nous sommes par ailleurs heureux de vous annoncer dès à présent la 4ème édition du Forum Big Data qui aura lieu à Paris le 8 novembre 2016 avec de nouvelles initiatives et de très nombreux partenaires. L’ÉQUIPE EDEN FORUMS contact@eden-forums.fr
LES ENTREPRISES PARTENAIRES DE LA 3ÈME ÉDITION DU FORUM BIG DATA PA R I S L I L L E LY O N 1000MERCIS ATOS CAPGEMINI CGI MICROPOLE NOVENCIA MERITIS OVH PUBLICIS ETO SEMARCHY SOGETI HIGH TECH SOPRA STERIA
En savoir plus pages 8-9 pages 10-11 pages 12-13 pages 14-15 pages 16-17 pages 18-19 pages 20-21 pages 22-23 pages 24-25 pages 26-27 pages 28-29 pages 30-31
Hippolyte Regnault
Président de Dauphine Débat Discussion à l’Université Paris-Dauphine
Depuis 2002, nombreux sont les hommes politiques, journalistes, économistes et chefs d’entreprise à avoir répondu à l’invitation de Dauphine Discussion Débat. Fidèles à notre principe d’impartialité, nous recevons des personnalités publiques de tous bords, de toutes convictions. Nous orientons la discussion sur des thématiques touchant au plus près l’actualité, et soulevons les questions ayant trait aux enjeux contemporains. Parmi ces enjeux, le Big Data s’impose aujourd’hui comme une opportunité et un défi majeur pour les entreprises. Derrière cette terminologie sont mêlés progrès technologique, innovation et évolution sociale. En effet, il peut paraître pertinent de mentionner que depuis 2008, le nombre d’appareils connectés à Internet est supérieur aux nombres d’humains sur la planète, et que le nombre de recherches par mois sur Google excède aujourd’hui 220 milliards. Cette utilisation accrue des nouvelles technologies ne peut s’effectuer sans générer une quantité de « données » aussi bien personnelles que professionnelles. Aussi, le rôle aujourd’hui des data-scientistes est de décrypter et utiliser ces données afin de transformer ces dernières en un actif stratégique qui permettra à l’entreprise de créer de la valeur, de déterminer ses cibles et de prendre des décisions. Le
Big Data répond donc à une nouvelle demande de gestion et d’analyse de cette large quantité de données collectées. Toutefois, si en raison de l’automatisation, de la visualisation et du stockage des données, le secteur du marketing par exemple a connu une évolution considérable, la question de la protection de la vie privée se pose de plus en plus. En effet, quelle est la limite que les entreprises doivent-elles respecter concernant l’utilisation des données de leurs clients ou utilisateurs, dans quelle mesure peuvent-elles les monnayer ? Par ailleurs, dans quelle mesure cette révolution de la donnée qui n’en est encore qu’à ses débuts va-t-elle modifier et transformer en profondeur les entreprises et les industries ? Quels sont les secteurs qui peuvent avoir recours à l’utilisation de ces données ? Les secteurs de la sécurité et de la surveillance sontils légitimes pour se servir de ces données ? Par ailleurs, des interrogations d’ordre davantage pratique peuvent également être soulevées notamment en ce qui concerne la possibilité pour les entreprises à mettre en place ce système de Big Data. En effet, la complexité des infrastructures et logiciels à mettre en place dans les entreprises, à laquelle s’ajoute l’absence de compétences internes, les coûts financiers engagés peuvent représenter des freins au développement du Big Data. Autant de questions et d’interrogations qui mettent en évidence l’enjeu économique, éthique et pratique du Big Data.
Lucas Richard
Président de Dauphine Débat Discussion à l’Université Paris-Dauphine
Le Big Data a une image mystique. Celle d’algorithmes tous plus incompréhensibles les uns que les autres et de bases de données toutes plus volumineuses les unes que les autres. Il est aussi victime de ses fantasmes. En effet, le Big Data est parfois présenté comme une science des données qui permettra de résoudre tout et n’importe quoi grâce à des modèles inexplicables, élaborés par deux ou trois passionnés d’informatique et de statistiques inadaptés à la vie réelle. Vincent Tréguier rejoint ce point de vue, en écrivant en 2014 que « la vie deviendrait alors une suite de 0 et de 1, programmable et prédictible ». Cette image est-elle plausible ? Si l’on trouve beaucoup de définitions différentes du Big Data, ses techniques sont facilement résumables. En prime abord, nous nous disons que l’abondance des données dont nous disposons nous permet d’affiner des modèles, mais qu’en contrepartie ceux-ci sont plus longs à obtenir. Cette idée est parfaitement vraie, mais pourquoi remettrait-elle en cause leur explication ? Le fait de disposer de beaucoup de données permet de les séparer, de trouver des modèles sur chaque partie de base
de données. En agrégeant ces bases de données, on en déduit un modèle plus compliqué, mais aussi plus précis. Les modèles issus de cette technique restent-ils pour autant compréhensibles ? La réponse est claire : oui, il le sont. Néanmoins, leur interprétation nécessite du temps. Plutôt que de se contenter de trouver des modèles simples et interprétables par tout le monde, le data scientist doit trouver des modèles complexes, précis, mais leur explication est plus laborieuse. Bien entendu, il devra surmonter cette difficulté en faisant preuve de pédagogie, surtout dans le cadre de ses relations professionnelles avec des collègues non-initiés au Big Data. En enrôlant toutes ces tâches, il deviendra un pilier au sein de grandes compagnies ou d’entreprises de conseil. Nos modèles prédisent un bel avenir pour le Big Data et les data scientists. Et nous ne sommes pas les seuls : en Février 2013, l’Association française des éditeurs de logiciels et solutions internet a déclaré que le Big Data devrait représenter 8% du PIB européen en 2020.
Le Big Data est aujourd’hui au cœur de la transformation et de la modernisation des entreprises. Ce phénomène prend chaque jour davantage d’ampleur et ses enjeux stratégiques n’échappent plus ni aux grandes ni aux petites ou moyennes entreprises. L’École Nationale de la Statistique et de l’Administration Économique (ENSAE Paritech) est au cœur de cette révolution, elle forme chaque année, des étudiants hautement qualifiés qui sauront répondre aux attentes de ce nouveau secteur d’activité.
L’ENSAE Junior Études propose aujourd’hui un service unique aux entreprises : mener des études dans le domaine du Big Data. Ces missions sont réalisées par des étudiants, qui suivent une formation d’excellence au sein d’une école d’ingénieur de réputation internationale et dont les compétences correspondent à celles requises par le client, dans l’unique but de répondre aux exigences de l’étude et de satisfaire l’entreprise. Le sérieux et le savoir-faire de notre équipe ainsi que l’excellence de la formation dispensée par notre école, font d’EJE une Junior-Entreprise incontournable dans le domaine du Big Data et la fidélité de nos clients en est la meilleure reconnaissance.
Le FORUM BIG DATA réunit 18 écoles et universités partenaires représentant 40.000 étudiants et jeunes diplômés à Paris, Lille et Lyon
Les bouleversements récents dans la relation entreprise-clients ont généré des modifications profondes en termes marketing et commercial. Les consommateurs ne sont plus considérés comme des récepteurs de message passifs, mais sont aujourd’hui d’importants relais de messages concernant les offres d’entreprises à travers les nouveaux canaux de communication tels que Facebook, Twitter, ReviewCentre.com, etc... Ainsi, certaines prises de décision réalisées autrefois par des experts humains se font dorénavant via des (gros) systèmes de planification stratégique qui interprètent simplement les données et décident de manière semi-automatisée la meilleure solution à un problème complexe. Le traitement de l’information a été ainsi modifié grâce à l’explosion des données de consommation en entreprise recueillies dans le cadre de récents développements au niveau des technologies de l’information. Cette collecte massive de données est souvent dénommée « big data ». Ces développements ont créé d’énormes défis pour les organisations et leurs décideurs. Ainsi, la nécessité de gérer efficacement l’afflux de données de l’entreprise et les convertir en un aperçu utilisable pour l’entreprise a conduit au développement croissant de l’analytique de données (volumineuses) pour le marketing. A l’IÉSEG nous nous donnons pour mission de former des managers complets et internationaux, qui deviendront les acteurs du changement et assureront le développement de l’entreprise dans un contexte international. Nous avons donc lancé en septembre 2015 un Master of Science in Big Data Analytics for Business. Les participants de ce Master sont confrontés aux fondamentaux du processus de prise de décisions, par le biais de l’extraction des données, comme par exemple celles des réseaux sociaux, du trafic internet des clients, des données financières de Bloomberg et des processus d’inventaire existants. Les participants apprennent à résoudre des problèmes managériaux en se posant les bonnes questions, se basant alors sur les recherches et les données plutôt que sur l’instinct et les sentiments. Les data scientists seront indispensables au développement du business futur.
Le Master of Science in Big Data Analytics for Business est ouvert aux titulaires d’un Bachelor d’une école de commerce ou d’un Bac +4 (candidats français) ou d’un Bac +3 avec une expérience professionnelle de 3 ans. Par ailleurs, le Master profite de retours d’expérience d’intervenants experts. Trois Chaires d’entreprises ont été lancées sur ces problématiques entre l’IÉSEG et La Redoute, Leroy Merlin – Groupe Adéo et Crédit Agricole. Plus d’informations sur http://www.ieseg.fr/msc-big-data.
Le volume important de données disponibles dont le processus de création s’est grandement accéléré depuis la fin des années 90 nous a conduit à entrer dans l’ère et sous le règne des données. Elles valent de l’or pour qui sait s’en servir. Qu’est-ce que le Big-Data... imaginez que l’on puisse : - Prévoir la plupart des maladies (via le décodage de gènes responsables) ; - Prédire les catastrophes naturelles : tremblements de terres, vagues scélérates, sécheresse et inondation, la météo à long terme ; - Découvrir d’où nous venons et où nous allons à l’aide de la masse colossale de données reçue de l’espace, - Prévoir toutes sortes de défaillance à partir de données récoltées sur l’utilisation de milliers d’exemplaires de dispositifs et procédés sophistiqués (e.g. moteur d’avion, centrale nucléaire, ...). La réalisation de ces objectifs nécessite : 1- un volume très important de données fiables 2- des méthodes et algorithmes efficaces 3- de grands moyens de calculs (distribué, parallèle, ...) Évoquons en quelques mots chacun de ces points. 1) Les données sont déjà disponibles : Le volume des données produites est multiplié par 2 tous les 15 mois. Cette production effrénée n’est pas toujours synonyme du stockage et encore moins du traitement de ces données. En 2015, on estime qu’au plus 5 % des données qui nous arrivent depuis l’espace (via les satellites sondes, etc) sont exploités. De même, pour les phénomènes naturelles (en particulier les catastrophes naturelles évoquées ci-dessus), très peu de données font l’objet d’une exploitation. Ces données sont hétérogènes et multimodales (texte, image, signal et son, vidéo) expriment toutes sortes d’information (y compris sémantiques comme une émotion, un sentiment). L’accès / stockage et la représentation de ces données par les méthodes classiques deviennent moins adaptés. Pour être plus efficace, des modèles plus simples ont vu le jour. On propose une organisation par clé-valeur où la valeur en question peut être quelconque, ou encore une représentation par graphe exprimant des dépendances. Avant tout traitement, les données doivent être assemblées, consolidées, nettoyées, transformées ou transcodées pour être préparées pour l’étape du traitement. 2) Aussi bien que les données seules ne servaient à rien sans la puissance de «calcul» du héro du film «Minority Report», les données brutes (Data) ont besoin de la puissance d’induction des méthodes employées pour devenir connaissance (Knowledge). La tache du traitement de ces données (appelée Apprentissage) utilise une ou des méthodes pour construire un ou plusieurs modèles. Un modèle obtenu est supposé avoir créé les données d’apprentissage. Les progrès en Intelligence Artificielle, en particulier en Apprentissage Automatique et en Inférence Statistique sont remarquables mais découvrir un modèle via un apprentissage n’est pas tâche facile : le manque de connaissances a priori sur les données et la complexité des phénomènes étudiés produisent des dimensions très élevées qui sont autant d’obstacles réels. 3) En attendant les ordinateurs quantiques, nous devons trouver les méthodes (cf. point 2) de plus en plus efficaces et les mettre en œuvre sur les ordinateurs actuels. Non seulement les possibilités de calcul et les vitesses de communication actuelles restent insuffisantes, mais encore réceptionner des masses gigantesques de données avec les vitesses standard actuelles est comme remplir une piscine goûte-à-goûte. Notons que pour transmettre un grand volume de vidéo d’un point à un autre, le moyen le plus rapide est encore le transport terrestre !
Le Big-Data n’échappe pas aux principales questions posées en matière de Fouilles de Données (Data-Mining). À savoir, l’hypothèse de la représentativité des données (i.e. les données décrivent entièrement l’espace dont elles sont issues) et la question de la forme souhaitée des résultats (simples valeurs, équations, graphes et arbres, règles, classes et clusters, probabilité, etc). Cette dernière détermine les méthodes que l’on doit appliquer aux données. Ce que le Big-Data n’est pas (ne saura pas faire) : Prédire par exemple les numéros du Loto gagnant ou d’une manière générale, prévoir l’issu de tous processus réellement aléatoires. BIG-DATA À L’ECOLE CENTRALE DE LYON (ECL) Comme nous l’avons évoqué, les exigences d’un apprentissage rapide et fiable ne peuvent pas être satisfaites avec les outils et méthodes traditionnelles : la tâche prendrait des années-lumière ! Il nous faut donc nous préparer et préparer nos élèves à surmonter les difficultés de la tache. L’Ecole Centrale de Lyon assure depuis plusieurs années des enseignements en lien avec l’apprentissage automatique par les méthodes à la fois Statistiques et Algorithmiques. En plus des modules de statistiques pour Ingénieur, de Data Mining et Extraction de connaissances, l’ECL a introduit un enseignement plus spécifique sur les outils et méthodes d’apprentissage automatique. Concernant le Data-Mining standard qui reste le cœur de l’apprentissage artificiel, nous abordons les méthodes et techniques d’apprentissage automatique sur les données transactionnelles. Il s’agit d’un format homogène de données en entrée des méthodes employées (données issu de toutes les transformations et transcodage en amont). Le logiciel utilisé est principalement Weka. En parallèle, un autre module s’intéresse spécifiquement à l’apprentissage dont les données sont des Images, Sons ou Vidéos. Ce domaine particulier (par la nature des données utilisées) est un axe principal de recherche de l’équipe de recherche Informatique de l’ECL. Plus récemment, nous avons introduit le module Big-Data qui cible les méthodes et techniques en Data-Mining pour le Big-Data en présence de données en grande dimension. La grande dimension est abordée sous l’aspect grand nombre de variables d’entrée. On présente alors quelques extensions du modèle linéaire qui permettent de traiter des tables de données présentant plus de variables explicatives que d’observations. Parmi ces extensions, on trouve la régression pénalisée (Ridge, Lasso, Elasticnet,...), la régression sur des combinaisons linéaires des variables d’entrée : Partial Least Squares et Principal Component Regression. Également, les approches d’approximation via des modèles additifs sur bases de splines d’approximation sont présentées. Il s’agit d’aborder le principe de la modélisation non paramétrique. Enfin, on aborde des méthodes à base d’arbres ; méthodes parallèlisables très utilisées par les Data Scientist qui permettent d’aborder la grande dimension (cf. la méthode CART, le modèle MARS et l’approche Random Forest). Les différentes méthodes sont illustrées sur des jeux de données le via le logiciel R. Outre les données numériques, ce module s’emploie également à présenter le traitement de document (texte, dépêches et alerte, files de discussion et gazouille, etc) pour une tâche de recherche de document. En phase de préparation des données, un processus de recherche de radical (Stemming) est appliqué. Ensuite, on peut établir différents types de matrices Terme-Document. Après cette étape de préparation de données, une phase de réduction de dimension et de projection est appliquée. Une fois les données ainsi préparées, on peut appliquer différentes méthodes d’apprentissage automatiques telle que la Classification ou l’Apprentissage à Base d’Instances. Parallèlement, une Analyse Sémantique Latente (LSA, LDA) est abordée. Céline Helbert / Alexandre Saidi juillet 2015 (Enseignants Chercheurs, Maitres de Conférences en Mathématiques / Informatique au Dép.)
Jean-François Boulicaut
Professeur à l’INSA de Lyon Directeur du Département Informatique à partir du 1/9/2015 Chercheur au LIRIS CNRS UMR 5205, groupe DM2L
Notre environnement socio-économique exige de répondre aux enjeux de la science des données qui émergent dans le sillon du « Big Data ». L’agitation autour de ces questions demande des réponses adaptées de la part des enseignants-chercheurs. Pour les chercheurs en « data mining » ou « data science », les concepts du « Big Data » et leurs limites sont assez bien compris grâce à des projets dédiés depuis la fin des années 90. L’effort de recherche doit se poursuivre car de nombreux problèmes restent ouverts. Les préparations de doctorats, e.g., en entreprise, permettent d’ailleurs d’accélérer les transferts, un dispositif encore mal utilisé. Pour l’enseignant, nous avons vu arriver les demandes en formation à l’exploitation des masses de données : il faut transmettre des éléments de réponse aux défis posés par les fameux « V » (volume, vélocité, variété, véracité, valeur). Le « Big Data » commence dès que l’on atteint les limites des approches actuellement maîtrisées par les meilleurs ingénieurs : on peut alors poser le constat du non fonctionnement de technologies qui ne peuvent passer à l’échelle lorsque les données sont trop nombreuses, trop bruitées, arrivent trop rapidement, etc. Il faut donc bien (ou mieux) mettre en avant les progrès récents dans le domaine des bases de données, du calcul haute-performance, de l’apprentissage artificiel et de la fouille de données, des statistiques, etc. Il faut aussi créer de nouveaux enseignements sur, e.g., les concepts et les applications du « social computing ». L’une des difficultés est que nous devons former nos étudiants aux processus complexes et semi-interactifs de la valorisation de données :au-delà des apprentissages informatiques et mathématiques, ils doivent alors être capable de travailler dans des contextes pluridisciplinaires (avec souvent des besoins d’interfaces avec les Sciences Humaines et Sociales) et pluriculturels. C’est l’un des axes forts de la formation d’ingénieur informaticien à l’INSA de Lyon.
L’Association des Elèves du Département Informatique (AEDI), anime et coordonne la vie extra-scolaire des élèves-ingénieurs en informatique de l’INSA de Lyon. Ses missions principales sont : Contribuer à l’animation de la vie étudiante, notamment via des week-ends thématiques, des évènements, des activités, des sorties ponctuelles ainsi que via l’accueil des nouveaux arrivants. Rapprocher les étudiants et les entreprises en organisant des évènements variés : conférences thématiques, afterworks, etc. L’AEDI organise notamment chaque année en Janvier, un forum de recrutement incontournable, aussi bien pour les étudiants à la recherche de stages, que pour les entreprises désireuses de recruter des élèves-ingénieurs en Informatique de l’INSA. L’étudiant et le Big Data Le Big Data est pour beaucoup de gens une notion floue et mal définie. Les moins anglophobes comprennent l’idée mais le sens reste difficile à cerner. Pour un étudiant en Informatique c’est une ambiguïté avec laquelle il faut avancer. Le Big Data c’est plusieurs choses. C’est à la fois la quantité mais aussi la diversité des données, le tout traité suffisamment rapidement pour avoir les résultats avant la fin de la durée de vie de la donnée. L’étudiant INSA dans tout ça ? L’INSA possède des laboratoires de recherche de renommée internationale qui travaillaient sur le Big Data bien avant même que cela prenne ce nom. On parlait de “Data Mining” et de “Data Analytics” dans les couloirs depuis le début des années 2000. L’élève-ingénieur INSA baigne donc dans cette “culture de la donnée” chaque jour. Le Big Data : l’informatique de demain ? L’informatique a toujours été basée sur le stockage et la manipulation de données. Avec la puissance des ordinateurs d’aujourd’hui, ce qui paraissait impossible hier, ne le sera plus demain. L’émergence des réseaux sociaux ont fait exploser la valeur de la donnée et la quantité de données générée chaque jour. L’utilisateur est maintenant prêt à échanger (consciemment ou non) du contenu contre ses informations personnelles. Cette masse de données représente une mine d’or pour les entreprises… ainsi qu’un eldorado pour les futurs-ingénieurs et jeunes diplômés qui possèdent cette “culture de la donnée”. Les entreprises ont dès maintenant tout intérêt à s’appuyer sur cette masse de données pour établir leurs stratégies, étudier la concurrence, comprendre les clients, ajuster les prix, anticiper les tendances... Dans un monde où un achat peut être fait en un clic depuis son poignet, il est évident que les entreprises doivent êtres réactives pour ne pas se laisser devancer. Cette mode n’en est cependant pas une, car le Big Data est, autant que l’a été l’apparition d’Internet, de Google, de Facebook ou des Smartphones, une véritable vague qui va changer le visage de l’informatique d’ici les dix prochaines années.»
1000mercis Entretien avec Julien Chailloux Vice-président de 1000mercis
Le Groupe 1000mercis, pionnier de la publicité et du marketing interactifs, apporte des réponses innovantes aux entreprises qui souhaitent optimiser leurs actions de conquête et de fidélisation grâce aux médias interactifs (Internet, téléphones mobiles et tablettes). LE GROUPE 1000MERCIS LANCE LE CRM DISPLAY EN RTB, POUVEZ-VOUS NOUS EN DIRE PLUS SUR CETTE OFFRE ? Le RTB (Real Time Bidding) est une révolution majeure dans la publicité et le marketing relationnel sur Internet. Il s’agit de prendre la décision pour chaque bannière affichée : A qui s’adresse ce message ? Est-il déjà client de ma marque ? Est-il intéressé ? A-t-il été déjà trop exposé ? Cet affichage sera-t-il rentable ? Il s’agit bien d’un nouveau canal relationnel : le CRM display ! Cela permet de régler la pression publicitaire plus finement qu’auparavant en permettant un meilleur ciblage et une meilleure gestion de la pression promotionnelle entre les différents canaux de prise de parole (email, sms, bannière, mailing, call center…). Notre offre autour du CRM display s’appuie donc sur la création d’un système de gestion de base de données appelée DMP (Data Management Platform) qui combine les données comportementales temps réel et les données CRM transactionnelles (online ou offline). En parallèle, nous avons développé une expertise sur l’activation de ces données en RTB pour accompagner les marques sur : quel message, à quel client, à quel moment et sur quel media digital. AVEC UNE FORTE EXPERTISE EN BIG DATA ET DATA MARKETING, COMMENT LE GROUPE 1000MERCIS RÉINVENTE LE DISPLAY ? Le marché display était jusqu’alors un marché de media pur : on envoie des messages identiques en masse à des audiences. Désormais l’utilisation de la donnée propriétaire des marques (comportements, données clients, données produits…) permet d’initier une relation personnalisée dès l’affichage d’une bannière. Les frontières entre le media et la data sont désormais poreuses et le groupe 1000mercis travaille sur la personnalisation des messages pour permettre aux annonceurs d’optimiser leurs prises de parole. LE BIG DATA PRÉDICTIF PERMET D’ANTICIPER LES DÉSIRS DES CONSOMMATEURS, COMMENT CELA EST-IL POSSIBLE ? Les innovations technologiques nous permettent désormais de conserver et d’analyser beaucoup plus de data et de les traiter plus rapidement qu’avant. Cette quantité incroyable d’informations nous permet d’utiliser les technologies de machine learning pour optimiser nos
investissements en RTB. Chaque jour, les mathématiques et les machines nous aident donc à optimiser les campagnes que nous gérons pour le compte de nos clients. Mais sans marketeurs et sans data scientists pour faire parler cette donnée, rien n’est possible. Il est important de combiner les intuitions et le savoir-faire des hommes avec la capacité de traitement des machines.
L’INQUIÉTUDE DES CONSOMMATEURS POUR LE MARKETING PRÉDICTIF EST-ELLE JUSTIFIÉE ? QUELS BÉNÉFICES POURRAIT-IL AU CONTRAIRE EN RETIRER ? Chaque jour, nous sommes face au paradoxe d’internautes qui veulent à la fois limiter ce que les marques savent d’eux mais être exposés à des messages qui les intéressent. La base de toutes nos réflexions et de nos efforts est très claire : c’est le consommateur qui décide s’il autorise un site ou une marque à en savoir plus sur lui. Les consommateurs savent de plus en plus prendre euxmêmes les initiatives pour maîtriser les traces qu’ils laissent (logiciels bloqueurs de publicité, navigation privée…) et c’est tant mieux. Le bénéfice du marketing prédictif pour le consommateur est clair : limiter le nombre de messages qui lui sont adressés et qu’ils soient le plus pertinents possible.
9
Atos et la puissance des données Volume, Vitesse, Variété et Valeur, le Big Data est aujourd’hui un enjeu pour les entreprises. Avec un chiffre d’affaire de 11 milliards d’euros, Atos représente 93 000 collaborateurs dans 72 pays et une vingtaine de sites partout en France. Site internet dédié au recrutement : http://fr.atos.net/fr-fr/accueil/carrieres.html
La quantité de données exploitables atteint aujourd’hui un volume inédit, qui continue de croître de jour en jour. Ces données internes ou externes sont pour la plupart des données non structurées que les entreprises devront exploiter pour générer davantage de valeur et se démarquer de la concurrence. Aujourd’hui, le Big Data peut être utilisé dans de nombreux cas d’usage et dans tous les secteurs d’activités. Il permet : • Le croisement d’informations, pour une valorisation de la donnée • L’analyse sémantique, pour une analyse du sens donné au texte brut • La recherche avancée pour une vue unifiée, type vue 360° • La visualisation adaptée aux métiers pour aboutir au « data story telling » La question à se poser est la suivante : comment contrôler ces données ? Et plus important encore : comment générer de la valeur à partir de ces données ? Atos propose des solutions dédiées et dispose des compétences pour gérer le Big Data et en extraire davantage de valeur.
ATOS Le Stade Toulousain, l’un des plus prestigieux clubs de rugby français, a fait appel à Atos pour faire du Big Data l’un des piliers de sa stratégie de développement. Une plate-forme Big Data, mise en œuvre par Atos, va devenir le catalyseur d’une innovation marketing et commerciale destinée à élargir son activité et renforcer sa marque. Au cœur du système d’information, ce socle analytique va permettre au Stade Toulousain de déployer sa stratégie digitale, et d’imaginer des applications innovantes, dont le développement progressif, en mode agile, s’accordera aux ressources et au rythme d’apprentissage du club. L’architecture, virtualisée et élastique, permettra en outre une montée en charge progressive, mais aussi d’absorber les pics de charge lors des matchs ou des grands événements. Par ailleurs, le Big Data va aussi devenir un outil d’aide à la performance: la même infrastructure, dupliquée, va en effet servir à approfondir l’analyse vidéo et statistique du jeu et des joueurs.
Le big data : de nouvelles expertises Avec l’acquisition récente du Groupe Bull, Atos a renforcé sa présence sur le marché des Big Data notamment, et cherche à recruter de nouveaux profils métier tels que les data scientists. Ces spécialistes sont en mesure de comprendre les problématiques et les enjeux du métier, d’obtenir des données adéquates, d’en évaluer la qualité et la richesse, de les analyser et d’en restituer les résultats. Pour les experts techniques, spécialistes en infrastructures, développeurs et architectes, cette évolution leur permet de changer d’approche quant à la définition de l’architecture et de nouveaux composants techniques à embarquer. Ils sont en effet confrontés à de nouvelles architectures distribuées complexes, caractérisées par une multitude de services répartis. Les développeurs vont ainsi s’appuyer sur ces nouveaux composants techniques qui permettent le traitement parallèle massif des données. Des défis passionnants en perspective.
PROCESSUS DE RECRUTEMENT Rejoignez le leader européen du Big Data ! Une première sélection des candidatures est effectuée sur CV et lettre de motivation. Puis, les candidats sont conviés à 2 à 3 entretiens auprès de RH et d’opérationnels. Atos organise également des sessions mensuelles de recrutement, les Atos Graduate Day, qui constituent des moments privilégiés de rencontres et d’échanges, en petits groupes, avec les opérationnels. A la clef : une proposition d’embauche dans les 48H !
11
Et si vous
anticipiez l’avenir ?
Transformer les innovations technologiques en résultats Business. Avec nos solutions Digital, Business
Analytics & Big Data.
Retrouvez toutes nos opportunités de stages et d’emplois sur
www.fr.capgemini.com/carrieres
CAPGEMINI Valérie Perhirin
Responsable France de l’offre Big Data et Analytics Fort de près de 180 000 collaborateurs et présent dans plus de 40 pays, Capgemini est l’un des leaders mondiaux du conseil, des services informatiques et de l’infogérance. Le Groupe a réalisé en 2014 un chiffre d’affaires de 10,573 milliards d’euros. VOUS AVEZ PARTICIPÉ L’ANNÉE DERNIÈRE À LA SECONDE ÉDITION DU FORUM BIG DATA. COMMENT CAPGEMINI A FAIT ÉVOLUER SES EFFECTIFS DEPUIS ? Capgemini est l’un des leaders mondiaux en matière de conseil, de services informatiques et d’infogérance. Avec l’acquisition toute récente d’IGATE aux Etats-Unis, les effectifs du Groupe ont atteint près de 180 000 collaborateurs. En France, Capgemini représente plus de 22 000 collaborateurs dans 21 villes. Les recrutements sur l’année 2015 en France restent globalement stables avec un objectif de 2500 collaborateurs d’ici la fin de l’année, principalement en CDI. Environ 70 % de ces embauches concernent des jeunes diplômés et des débutants ayant à leur actif moins de deux ans d’expérience. Nous recherchons également des candidats plus expérimentés. Cette année, l’accent est mis sur les technologies liées à l’expérience et la relation client, au digital (CRM, Salesforce etc.) et bien évidemment – ce qui justifie notre présence sur ce forum - au Big Data (près de 100 profils de type data preparator, data analyst sur les technologies Hadoop sont recherchés) et à l’Analytics avec des profils de Data scientists (près de 30 profils maitrisant le Machine learning, Analyse de réseaux, Neurones,…) pour répondre aux attentes des entreprises qui souhaitent offrir de nouveaux services digitaux, analytiques et mobiles à leurs collaborateurs et à leurs clients. CAPGEMINI A DÉVELOPPÉ LA SOLUTION INSIGHTS & DATA GLOBAL PRACTICE. QUELS SERVICES CETTE OFFRE PROPOSE-T-ELLE À VOS CLIENTS ? Insights & data est une ligne de service qui met la valeur tirée des informations internes et externes au cœur des processus métiers de nos clients. Notre offre Insights & data repose sur 4 piliers majeurs : 1. Le centre de service Business Insights a pour vocation de rassembler et mutualiser les travaux de valorisation de la donnée. Ce centre de service peut être externalisé en mode nearshore ou offshore et doit intégrer une composante d’innovation technologique. 2. Le second pilier adresse les sujets technologiques disruptifs , Hadoop n’est pas seul au coeur du sujet. Il s’agit d’appréhender les sujets Fast Data, plus d’agilité dans l’exploration des données, sécuriser les data lake constitués…
3. Analytics and data science constituent un pilier combinant la puissance des mathématiques avec l’intelligence des processus. 4. Platform Insights as a service est une offre complète intégrant les 3 axes majeurs du big data : le processus métiers, l’analyse des données, l’architecture et l’infrastructure en mode cloud. LA FAÇON DE TRAITER DES DONNÉES DIFFÈRE SELON LES ORGANISATIONS. COMMENT AVEZ-VOUS ADAPTÉ VOS OFFRES ? La « loi de Moore » qui dit que la puissance des processeurs double tous les deux ans est à l’origine des nombreux phénomènes disruptifs récents. Cette évolution exponentielle implique une innovation constante et ouvre de formidables perspectives tout en apportant une incertitude économique grandissante. Il est de plus en plus indispensable d’insuffler la culture de la donnée et de la décision au sein de l’entreprise, et ceci y compris et surtout au niveau tactique et opérationnel. La puissance de calcul est devenue tellement accessible, que les limites sont devenues organisationnelles, et faire évoluer l’organisation est devenu le chemin critique. Notre offre intègre les enjeux métiers, accompagne la transformation des processus et des organisations ainsi que l’outillage SI des processus. LE BIG DATA RESTE UNE NOTION ASSEZ AMBIGÜE, COMMENT LA DÉFINIRIEZ-VOUS ? Le Big data est une révolution technologique, un mode de stockage à bas coûts, qui offre de nouveaux usages des données pour tous les acteurs d’une entreprise. Ces nouveaux usages répondent à 3 enjeux majeurs : la création de nouveaux services à valeur ajoutée, par conséquent une nouvelle source de génération de revenu. L’excellence opérationnelle est le second enjeu du Big Data & Analytics en intégrant l’intelligence des données dans les prises de décision des managers opérationnels. Enfin, ces nouvelles technologies sont un atout de modernisation des systèmes d’information, elles offrent des réductions de coûts et des gains de performance notables permettant de fournir des analyses en temps réel, là ou initialement l’information était fournie quotidiennement.
13
CGI Jean Christophe ALLE Manager IT Consulting
CGI est la cinquième entreprise indépendante la plus importante de services en technologies de l’information et en gestion des processus d’affaires au monde. CGI S’EST ASSOCIÉE À 4 GRANDES ECOLES POUR APPELER À UN GRENELLE DU NUMÉRIQUE, QUELS EN SONT LES OBJECTIFS ? Chez CGI, nous sommes convaincus que le numérique est une chance pour la France et la réponse la plus évidente pour améliorer la compétitivité des entreprises et leur permettre de se différencier sur le marché. Dans ce cadre, CGI appelle à un « Grenelle du numérique » et s’est associé à quatre Grandes Ecoles (CentraleSupéléc, Université Paris Dauphine, ECE Paris, Telecom Ecole de Management) qui ont présentées leurs propositions concrètes aux Parlementaires en prévision de la loi de programmation numérique votée courant 2015. Avec cet objectif partagé de donner au numérique la place qui lui revient dans nos institutions, notre économie, notre système éducatif et notre société pour contribuer à faire de notre pays cette nation “phare” du numérique que nous appelons tous de nos voeux. QUELLES SONT LES PROPOSITIONS CONCRÈTES QUI EN SONT SORTIES ? 5 propositions pour numériser la France # Renforcer le programme d’éducation au numérique # Changer l’image des métiers du numérique, notamment auprès des femmes # Développer des filières de reconversion vers les métiers du numérique # Créer une feuille de route numérique pour la France # Créer une Direction Big Data chargée de l’analyse des données de santé au sein de l’Institut national de veille sanitaire
dans leur prise de fonction. Le parcours démarre par un séminaire d’intégration de deux jours au sein de l’Université CGI où les nouveaux ont l’occasion de découvrir la culture et les valeurs de l’entreprise. • CGI dispose d’une université interne qui permet aux collaborateurs de suivre des formations tout au long de leur carrière. Elle est ouverte à tous, quel que soit le métier ou le niveau de séniorité des collaborateurs. A chaque étape de sa carrière, une formation de 4 à 12 jours est proposée au collaborateur. Toutes ces formations sont animées ou co animées par des managers de l’entreprise, experts dans leur domaine, dans un esprit de transmission du savoir et des pratiques CGI. • 4 écoles métiers sont proposées : Conseil, Gestion de Projet, Technologie et Client. L’Université propose 60 formations présentielles conçues et animées par des managers de CGI. CGI a un catalogue de formation en ligne de plus de 8 000 modules managériaux, commerciaux et techniques.
LES FORMATIONS CONSACRÉES AU BIG DATA SONT ENCORE RARES ET LES BESOINS EN RECRUTEMENT SONT CROISSANTS, COMMENT CGI ADAPTE-T-IL SON RECRUTEMENT ? Une entreprise apprenante avec l’université CGI • Dès leur arrivée, les nouveaux embauchés sont accompagnés Une entreprise partenaire et proche des écoles par un parrain pendant 1 an. Ce parrain va les guider Pour lui permettre de s’adapter et de répondre aux exigences actuelles du marché (tant au niveau des compétences que des technologies) en terme de recrutement, CGI met en en œuvre un grand nombre d’actions pédagogiques au sein d’écoles partenaires. Ces actions ont pour objectif de faire partager l’expérience de nos Experts et de mettre les étudiants en situation de problématiques clients auxquels ils pourront être confrontés demain. CGI a organisé plus de 150 interventions pédagogiques (conférences ou ateliers) : E-commerce, BI, Innovation et NTI, les ERP, Gestion de Projet, métiers du conseil.
15
MICROPOLE Charles Parat
Directeur stratégie et innovation Entreprise Internationale de Services du Numérique (ESN), présente en Europe et en Asie, et spécialisée dans la création de valeur, Micropole accompagne ses clients sur les domaines du Pilotage de la Performance, de la Transformation Digitale et de la Gouvernance des Données. MICROPOLE A RÉCEMMENT LANCÉ SA DATA SCIENCE PLATEFORM : BIG DATA 24. POUVEZ-VOUS NOUS PRÉSENTER CETTE OFFRE ?
APRÈS AVOIR INTÉGRÉ LE BIG DATA CHEZ MICROPOLE, QUEL IMPACT CELA A-T-IL EU SUR LES EFFECTIFS DE L’ENTREPRISE ?
Les Directions Métiers ont besoin de démontrer rapidement et à moindre frais la valeur de leurs données, de leur Big Data. C’est pour répondre à ces enjeux que chez Micropole, nous avons mis au point une matrice d’outils extrêmement puissants que nos équipes sont capables d’implémenter en fonction du besoin client, en moins de 24 heures. En d’autres termes, la force de Big Data 24, c’est de savoir proposer une expérimentation sans engagement de durée, à budget réduit : 1 plateforme de Data Science qui permette aux équipes métiers et techniques d’analyser, de modéliser et de valoriser ces volumes de données afin de tirer des enseignements. Volontairement concentrée sur 3 mois pour favoriser la mobilisation de tous, l’aventure Big Data 24 se termine ensuite, dans 3 cas sur 4, par la mise en place d’un accompagnement long terme sur mesure, orchestré par les équipes du Groupe Micropole.
Dans le Groupe, l’initiative Big Data / Big Analytics a rencontré un vif succès. Déjà rompu aux principes de BI Agile, nous avons créé une équipe de 40 collaborateurs, tant experts de la Data que plus spécifiquement du Big Data. Ensemble, ils œuvrent sur les business cases clients et mettent en commun leurs savoirs techniques et fonctionnels de manière à aider les entreprises à être « Big Data ready » !
D’APRÈS VOUS, COMMENT LE BIG DATA VA RÉVOLUTIONNER LA « BUSINESS INTELLIGENCE » ? Si le Big Data ne remplace pas à l’identique la Business Intelligence, il en est sa (r)évolution, le fer de lance d’un écosystème « numériquement transformé ». Aujourd’hui, on ne peut plus dépenser autant de temps et d’énergie à raffiner trop peu de données, mais si le Big Data devient incontournable, il n’en reste pas moins que nous aurons toujours besoin de sujets classiques, type datawarehouses. Finalement, le système BI idéal est le SI tout entier ! Notre objectif, chez Micropole, c’est d’aider nos clients à la transition de leur BI classique vers une BI durable, qui utilise les bons principes, les meilleurs composants et architectures en fonction des besoins et des criticités projets.
CHIFFRES CLÉS - UN CHIFFRE D’AFFAIRES DE 100 MILLIONS D’EUROS - PLUS DE 25 ANS D’EXPERTISE OPÉRATIONNELLE - 1100 COLLABORATEURS EN 2014
17
Historiquement tournée vers les enjeux du monde de la finance, NOVENCIA apporte aujourd’hui, son expertise Big Data au monde de la banque et de l’assurance. Dans un domaine où Vitesse et Efficacité sont les maîtres mots, pouvoir gérer, traiter et analyser en temps réel une masse incroyable de données représente un avantage concurrentiel fort. Avec la digitalisation des Systèmes d’Informations, le Big Data est désormais perçu par la plupart des entreprises comme un levier d’innovation, de croissance, et d’aide à la décision. Pour l’ensemble de ses projets, NOVENCIA s’entoure des plus grands éditeurs BigData pour intervenir en : - Finance : analyse en temps réel des risques de marché, pertes et profits (P&L), système anti-fraude, reporting règlementaire - Banque / Assurance : Analyse du parcours client, analyse 360°, IoT (Internet of Things), anti-fraude, analyse prédictive. - E-commerce / Média : recommandations, analyse du parcours client, analyse 360°, anti-fraude, analyse prédictive Nous intervenons dans le cadre de missions complexes Big Data en :
- Conseil : Gouvernance de la donnée, DataManagement, DataScience, Choix de solutions technique - Maitrise d’ouvrage et expertise fonctionnelle - Expertise Technique : Architecture, conception, développement (Hadoop, NoSQL, BDGraph, Spark, In Memory, Machine Learning)
Aujourd’hui NOVENCIA dispose d’une équipe de 50 consultants formés et certifiés par les plus grands éditeurs du BigData (DataStax, MongoDB, Quartet FS, MAPR, Neo4j…). Chaque consultant a une compétence et une expérience spécifique selon son domaine d’intervention. NOVENCIA valorise également l’expertise de ses collaborateurs puisque le groupe possède son propre centre de formation. Bénéficier des expertises techniques et métiers nous permet d’assurer un relais efficace entre les besoins métiers de nos clients et les réponses scientifiques et techniques que nous leurs apportons.
NOVENCIA Sébastien N. Leader Technique Big Data Face à ce terrain en changement constant Novencia forme ses consultants sur un socle technologique solide à l’aide de ses partenariats avec les éditeurs reconnus du domaine. Ces formations sont théoriques pour l’acquisition d’un champ de connaissances et pratiques pour avoir l’expérience du terrain afin de conseiller au mieux nos clients. En parallèle, NOVENCIA maintient une veille active pour appréhender rapidement les changements de cet écosystème Big Data et en comprendre les évolutions, les possibilités. QUE RETENEZ-VOUS DES 12 DERNIERS MOIS, EN MATIÈRE DE BIG DATA ET COMMENT LES OFFRES DE NOVENCIA ONT ÉVOLUÉES ? Derrière la tendance BigData, un écosystème d’acteurs toujours très dynamique. Pour commencer, une terminologie et des définitions qui commencent à se fixer comme les 3V (Volume, Vélocité, Variété) pour caractériser les projets dits Big Data, ou encore le théorème CAPPantone de BrewerRhodamine comme axe de classification Red C des différents datastorage en fonction de leurs caractéristiques. Un découpage en familles des projets NoSQL qui est Noir 100% de mieux en mieux compris. Tout ceci s’accompagne d’une maturité et une compréhension grandissante de ce champ Pantone Cool Gray 8 C technologique auprès des développeurs, des entreprises utilisatrices. Les premiers frameworks ne sont pas récents (Hadoop 2005, BigTable de Google 2006, Dynamo d’Amazon 2007, Cassandra 2008) mais leur démocratisation et leur utilisation dans l’industrie commence avec tous les apports en termes d’offre que cela entraine. D’un point de vue technique on voit encore apparaitre des «nouveautés» issues de la 1ère vague, comme la tendance NewSQL, des modèles NoSQL dits hybrides comme OrientDB, concept BASE (Basically Available SoftState Eventual consistency) par opposition à ACID (Atomicity Consistency Isolation Durability) des SGBD précédents, l’essor du OLAP pour analyser et visualiser ces volumes conséquents de données ou encore le développement du machine learning afin de tirer une information pertinente de ces volumes que l’on est maintenant capable de gérer (ouverture du laboratoire Facebook à Paris) Du côté des éditeurs on constate également une consolidation avec récemment le rachat de FoundationDB par Apple (mars 2015), l’acquisition de Orient Technologies Ltd par Samsung (avril 2015), acquisition de Aurelius (TitanDB) par Datastax (février 2015).
APRÈS HADOOP, APACHE A PROPOSÉ UN NOUVEAU SYSTÈME QUI TEND À SE POPULARISER : SPARK. S’AGIT-IL SELON VOUS D’UNE IMPORTANTE INNOVATION TECHNOLOGIQUE ? Dans les technologies dites Big Data, Hadoop est un écosystème riche avec de nombreuses composantes technologiques. Spark y trouve sa place en répondant à une demande croissante de traitement rapide de la donnée mis en perspective des volumes déjà intégrés dans les systèmes. Cela s’inscrit dans la transformation des systèmes IT pour sortir du mode de traitement de la donnée dit «batch» quand c’est possible, pour aller vers des traitements orientés flux de données. Ceci fait résonnance avec l’un des 3V évoqué précédemment : la vélocité des systèmes Big Data, avoir une couche analyse de données enrichie au plus vite. DANS CE CONTEXTE, QUEL EST, POUR VOUS, LE MÉTIER D’AVENIR POUR TRAVAILLER DANS LE DOMAINE DU BIG DATA ? INFORMATICIEN, MATHÉMATICIEN, GESTIONNAIRE ? Dans ce domaine je pense que le métier de développeur reste au cœur des problématiques. Que ce soit pour la construction des systèmes IT, le développement de briques applicatives, l’infrastructure mise en œuvre... La composante mathématique semble devenir de plus en plus importante que ce soit au travers des algorithmes nécessaires aux projets ou pour l’essor des compétences statistiques utiles au machine learning et à ce métier que l’on voit émerger : data scientist.
EN BREF Secteur d’activité : Finance de marché Principale implantation : Paris Date de création : 2001
19
Nicolas PIAU, Chief Digital Officer
MERITIS
Depuis la création de l’entreprise en 2007, le développement de Meritis est assuré par la qualité de ses équipes. En effet, Meritis mise avant tout sur des talents, juniors ou plus expérimentés, pour mener à bien l’ensemble des projets confiés par ses clients.
QUELLE EST L’HISTOIRE DE MERITIS ? Meritis est une ESN spécialisée en finance de marché fondée par Gilles Duret et Sébastien Videment. Nous travaillons sur des métiers très ciblés où notre expertise attire les meilleurs consultants ! Notre objectif ? Apporter des solutions performantes et innovantes à nos clients. Pour cela, notre philosophie est basée sur des valeurs telles que l’esprit d’équipe, l’entraide, l’humilité et la convivialité. 98% des salariés pensent que Meritis est une entreprise où il fait bon travailler (Great Place To Work 2015) et il nous tient à cœur que ces valeurs accompagnent notre croissance. QUEL EST VOTRE PARCOURS ET VOTRE RÔLE CHEZ MERITIS ? Je suis avant tout un passionné en développement informatique ! Suite à des études de développeur et des missions de freelance, j’ai fondé en 2006 une Start-Up dans le marché de l’informatique musicale. Après huit années d’exercice, j’ai quitté cette industrie pour devenir consultant dans une grande banque d’investissement française. Vainqueur d’un concours interne d’innovation, j’ai eu l’opportunité de proposer et travailler sur un POC utilisant les technologies Cassandra, Pentaho et Spark ML. L’utilisation de ces outils nous a permis de multiplier par trois l’efficacité de notre besoin. En 2015, j’ai rencontré les fondateurs de Meritis et j’ai rejoint l’aventure en tant que Directeur de la transformation digitale. Ma mission est de mettre en place et piloter le nouvel écosystème digital de Meritis, en coordination avec tous les métiers, pour optimiser notre recherche d’opportunité, de croissance et d’efficacité. MERITIS EST SPÉCIALISÉE EN FINANCE DE MARCHÉ, EN QUOI CE SECTEUR S’INTÉRESSE AU PHÉNOMÈNE BIG DATA ? Les nouvelles technologies révolutionnent tous les secteurs dont la finance. L’émergence des Fintech est impressionnante, beaucoup d’entre elles utilisent nativement ces outils. Toutes les grandes banques ont une entité IT conséquente qui développe des applications métiers dédiées à des besoins fonctionnels très pointus (Plateforme de trading, analyse de risque, calcul en grille). La volumétrie des données générée est importante et les systèmes utilisés tendent à devenir obsolètes. C’est pour cela que ces grands groupes s’inscrivent dans une démarche de transformation digitale et initient d’importants chantiers ! C’est dans ce cadre que les Big Data prennent de l’ampleur. Outre les gains d’efficacité et de couts, un des nombreux avantages de ces outils est que nous pouvons adresser des besoins très divers: analyse de logs en temps réel, moteur de recommandation, machine learning ou calcul de risque.
QUELLE EST VOTRE OFFRE AUJOURD’HUI EN TERME DE BIG DATA ? Meritis accompagne pro activement ses clients dans une démarche de découverte et d’intégration. Nous agissons comme un booster d’innovation avec la mise place d’équipes dédiées chez nos partenaires. Notre force est la spécialisation de nos consultants formés en interne à la finance de marché (l’un des domaines fonctionnels les plus impressionnants que je connaisse). Nous proposons une offre basée sur quatre axes, la gouvernance des données avec une offre MDM/DQM, la Business Intelligence et la mise en place de reporting et KPI clés, La gestion des périmètres fonctionnels complexes(référentiels de données, abus de marchés) et l’intégration du Big Data dans la transformation digitale du SI. QUEL EST VOTRE PROCESSUS D’INTÉGRATION POUR VOS NOUVEAUX COLLABORATEURS ? Quel que soit leur niveau, les consultants de Meritis ont ce petit supplément d’âme qui, allié à leurs connaissances techniques et fonctionnelles, fait la véritable différence sur un marché très exigeant. Il est important pour nous de recruter des collaborateurs passionnés, des artisans développeurs, des férus de mathématiques et de statistiques que nous formons en continu sur les technologies de demain. Fort de nos valeurs, nous pensons que c’est l’équipe, le groupe, qui crée l’excellence et la performance. Un bon data lab est constitué de profils très divers qui partagent une passion commune, celle de réaliser des projets très innovants orientés sur la donnée, la statistique et la recherche.
MERITIS 7 ÈME AU PALMARÈS GREAT PLACE TO WORK 2015 98% des salariés pensent que Meritis est une entreprise où il fait bon travailler 99% des nouveaux collaborateurs se sentent bien accueillis 99% estiment être traités équitablement quelle que soit leur origine ethnique
21
16 PAYS 700 00018 M 18 M 16 PAYS 700 000 Steven LE ROUX, C
M
12 implantations en Europe 1 succursale en Amérique du Nord 3 filiales en Afrique
12 implantations en Europe clients dans le monde 1 succursale en Amérique du Nord 3 filiales en Afrique
MJ
CJ
d’applications hébergées
d’applications hébergées
Architecte expert
CMJ
N
17 DATACENTRES
clients dans le monde
J
CM
17 DATACENTRES Europe de l’Ouest
1000 collaborateurs
1000
Amérique du Nord
Europe Centrale
www.ovh.careers collaborateurs
Europe de l’Ouest Amérique du Nord Centrale OVH (ON VOUS HÉBERGE) EST LEADER DE L’HÉBERGEMENT démarche BigEurope Data se distingue par l’exploitation qui est EN FRANCE ET EN EUROPE, EMPLOIE PRÈS DE 1200 faite des données, mais aussi par le volume, la variété et la PERSONNES ET CHAQUE ANNÉE SON CHIFFRE D’AFFAIRES vélocité des données collectées (les fameux « 3 V » qui ont AUGMENTE DE 30 %. COMMENT EXPLIQUEZ- VOUS CE permis de clarifier le concept – parfois fourre-tout – du Big SUCCÈS ? Data). Techniquement, il est devenu plus facile et moins coûteux de stocker des volumes considérables de données. La croissance exponentielle que connaît OVH depuis sa Mais le basculement de la Data au Big Data est surtout lié à création en 1999 témoigne du succès d’un modèle. Ce l’apparition d’un nouveau métier, celui de donner du sens modèle, porté par le fondateur de la société Octave Klaba, à des données non structurées, et à l’arrivée de nouveaux consiste à conjuguer innovation et maîtrise complète de la outils. Les outils utilisés jusque-là ont montré leurs limites. chaine de l’hébergement, de la production de nos serveurs Et la demande en matière de Big Data a explosé, car c’est à la maintenance de nos infrastructures, en passant par un champ de l’informatique plein de promesses. Les entrel’accompagnement de nos clients. Cela permet à OVH de prises ont vite vu dans le Big Data un moyen d’affiner leur proposer des services fiables, au meilleur rapport qualité/ business modèle, et combien cela constitue un avantage prix, au sein de trois univers : Web, Cloud et Télécom. Être décisif dans un marché de plus en plus concurrentiel et leader européen de l’hébergement représente une sacrée rapide. responsabilité, à l’heure où une partie de plus en plus importante de l’économie s’appuie sur le Web. Internet, OVH a apporté deux réponses à cette demande. La première du point de vue d’OVH, n’a rien de virtuel : aujourd’hui la a été d’enrichir nos gammes de serveurs dédiés avec des société, présente dans 17 pays, héberge 220 000 serveurs machines taillées (CPU/RAM/Disques) pour le stockage et physiques, au sein de 17 datacentres, et gère un réseau le traitement de données massives, et interconnectables mondial d’une capacité de 4,4 Tbps. entre elles via un réseau privé performant (vRack). Cela Mériter la confiance de plus de 930 000 clients, et concevoir permet de construire son propre cluster Big Data, pour ses aujourd’hui les solutions dont ils auront besoin demain propres besoins ou pour offrir une plateforme clés en main pour croître, est un travail de tous les jours. 1200 personnes à ses clients. La seconde réponse consiste à fournir des relèvent ce défi actuellement, et nous recherchons 300 solutions Hadoop as a Service, c’est-à-dire, des solutions collaborateurs supplémentaires pour accompagner nos prêtes à l’emploi, qui permettent de démarrer un projet Big projets au niveau mondial en 2016. Data en un temps record et de se concentrer sur la valeur ajoutée : l’analyse de la data. HÉBERGER DES BASES DE DONNÉES N’EST-CE PAS FAIRE DU BIG DATA AVANT L’HEURE ? COMMENT SOMMES-NOUS LE MARCHÉ EN PLEINE EXPANSION EST CELUI DES PASSÉS DE LA DATA À LA BIG DATA ET COMMENT VOTRE OBJETS CONNECTÉS, DE NOMBREUX EXPERTS ESTIMENT OFFRE A-T-ELLE ÉVOLUÉ ? QUE LE MONDE DE DEMAIN SERA ENTIÈREMENT CONNECTÉ, COMMENT OVH SE PRÉPARE-T-IL, QUELLES L’hébergement de bases de données est naturellement une SONT LES SOLUTIONS PROPOSÉES ET CELLES À VENIR ? activité historique d’OVH, dans le sens où les bases de données sont au centre de beaucoup d’applications informatiques. Parmi les 50 milliards d’objets connectés prévus à l’horizon On parle ici d’informations très structurées, qu’un logi2020, il y a aura bien sûr des terminaux connectés (smartciel va manipuler et rendre accessible à l’utilisateur. La phones, tablettes, liseuses…), des montres, des brosses à
www.ovh.careers
s
OVH dents, des thermostats, probablement des réfrigérateurs… Mais il y aura surtout une majorité d’objets apparentés au domaine du machine to machine. En clair, des capteurs qui envoient des données vers des serveurs qui les analysent pour générer des alertes, ou encore des statistiques, des prédictions. Des capteurs placés sur des équipements industriels pour rendre possible la maintenance préventive et la résolution de pannes à distance, des capteurs placés sur les rails pour en connaître la température et ajuster la vitesse des trains, etc. Ce volume de « choses » connectées va constituer un défi au niveau du réseau. La pénurie d’adresses IPv4, qui accélère l’adoption de l’IPv6 n’est qu’un aspect de cette problématique. Il faudra également augmenter la capacité des tuyaux qui transmettent ces milliards de données pour éviter la saturation. Mais il existe un autre défi pour les hébergeurs comme OVH : proposer aux utilisateurs des infrastructures adaptées à l’IoT (Internet of Things). L’IoT nécessite de faire appel à des compétences d’une grande variété, du design à la datavisualisation, en passant par l’électronique embarquée… Ceux qui échouent, en général, sont ceux qui ont essayé de tout faire par euxmêmes. D’où notre volonté de proposer plateforme dédiée à l’IoT en PaaS. Une plateforme clés en main, hautement disponible, sur laquelle les données sont pushées via une API et automatiquement répliquées. Une plateforme dont la facturation est fonction de l’usage. L’IoT est par nature une activité événementielle, qui génère des pics de charge et des périodes d’inutilisation des machines. La mutualisation des ressources que peut proposer un opérateur de la taille d’OVH permet de lisser les coûts, et de baisser drastiquement le prix pour l’utilisateur. Il ne sera ainsi plus nécessaire de dimensionner son infrastructure en fonction du pic de charge maximal : la plateforme constitue un backend scalable à l’infini, dont l’évolutivité comme la maintenance hardware et software sont gérées par OVH. Pour une société qui se lancerait, recourir à une plateforme en SaaS diminue fortement le Time to Market. Enfin, même si la mutualisation des ressources ne signifie pas l’absence d’isolation entre les utilisateurs, nous proposerons cette même plateforme en mode entièrement dédié, pour des projets qui évoluent dans un environnement réglementaire plus strict, par exemple les données liées au domaine de la santé.
C
M
J
CM
OVH PROPOSE DES SOLUTIONS BIG DATA À SES CLIENTS DEPUIS 2013, COMMENT VOS CLIENTS UTILISENT-ILS LA DATA ET L’OPTIMISENT ? QUEL CONSTAT FAITES-VOUS SUR CE MARCHÉ ET SON ÉVOLUTION À VENIR ? Nous avons différents types de clients et autant d’utilisations de la data. Certains construisent des services IoT, d’autres proposent de la recommandation ou de l’analyse de sentiment. Beaucoup utilisent Hadoop pour leurs besoins internes : archivage de données (logs…), ETL, reporting, statistiques, etc. Enfin, d’autres encore créent des outils temps-réel pour transformer une data en action. L’écosystème autour d’Hadoop constitue un ensemble d’outils pertinents pour développer un système d’information (SI) moderne, flexible et économique. Les technologies qui composent l’écosystème Hadoop permettent d’envisager de passer du mode «batch mensuel» historique vers un mode «temps-réel» à grande échelle. Les banques, qui ont vite compris que les outils classiques ne permettaient plus de délivrer leurs services à grande échelle, ont été parmi les premières à comprendre l’intérêt de ce type de framework. Les entreprises ayant déjà adopté l’approche Data (et celles qui s’y mettent, il n’est jamais trop tard !) seront probablement les leaders de demain. Tous les secteurs d’activité sont bousculés par de nouveaux entrants, plus agiles, plus innovants, plus rapides à exploiter les innovations technologiques pour apporter de la valeur au client final. Les entreprises qui veulent rester dans la course doivent s’équiper d’outils qui leur permettront de faire évoluer leur modèle, saisir plus tôt les opportunités. OVH possède une infrastructure réputée à la fois compétitive et robuste, qui a fait de nous une référence incontournable pour l’hébergement de projets web. Le développement de notre offre PaaS (gestion de métriques avec PaaS IoT, gestion de logs avec le PaaS logs, etc.) témoigne de l’ambition d’OVH d’être également une référence pour les projets liés à la collecte et à l’exploitation de la data. Le Big Data n’est pas l’avenir, c’est désormais un prérequis. La data fournit l’Information nécessaire à la constitution d’un savoir qui nourrit notre vision. En corollaire, qui prétend avoir une Vision sans Data se risque au paralogisme alors que l’optimisation d’une entreprise devrait se faire par pure casuistique. OVH a d’ailleurs adopté cette approche, et la Data est désormais au centre de ses décisions.
16 PAYS 700 000
18 M
12 implantations en Europe 1 succursale en Amérique du Nord 3 filiales en Afrique
d’applications hébergées
clients dans le monde
MJ
CJ
1000
CMJ
N
17 DATACENTRES Europe de l’Ouest
collaborateurs
Amérique du Nord
Europe Centrale
23
roi de la savane depuis
1986
50
D a t a
plateformes relationnelles au poil
driven
agency
295
collaborateurs aux talents acérés
130
experts pour faire rugir la data
Publicis ETO met la data au coeur des dispositifs marketing & communication. Elle associe le savoir-faire d’une agence de communication aux différentes expertises du data-marketing. Ce positionnement nous permet d’aborder les problématiques marketing et communication avec un angle connaissance client et d’apporter à nos recommandations et dispositifs toutes les possibilités du digital et de la big data.
PUBLICIS ETO Samir Amellal, Chief Data Officer à Publicis France Publicis ETO est une agence du Groupe Publicis qui met la Data au cœur des dispositifs marketing et de la communication commerciale. Créée en 1986, composée de 280 personnes, elle rassemble tous les métiers du marketing, du CRM, de la communication et du Data Marketing. QUELLE EST LA VALEUR AJOUTÉE LORSQUE LA DATA EST MISE AU CŒUR DES DISPOSITIFS MARKETING ET COMMUNICATION ? Une meilleure compréhension des tenants et aboutissants, une amélioration de l’expérience utilisateur et une maximisation de l’efficacité.
« La data permet de découvrir de nouveaux besoins » Quelles sont les innovations qui en découlent ? Des outils programmatiques plus autonomes et efficaces, des réorganisations d’entreprise plus aptes à répondre au besoin du marché, la découverte de nouveaux besoins ou usages… NOMBREUX SONT LES UTILISATEURS À CONSIDÉRER LA PUBLICITÉ COMME INTRUSIVE. UN RÉCENT ARTICLE DU JOURNAL DU NET A ÉVOQUÉ À CE SUJET L’UTILISATION DANS UN AVENIR PROCHE DU VRM ( VENDOR RELATIONSHIP MANAGEMENT) ET NON PLUS DU CRM. QUELLES DIFFÉRENCES ENTRE CES DEUX OUTILS ? Il s’agit d’un rééquilibrage de l’interaction et d’une prise en main plus active par les consommateurs du marché (consommacteurs). Il n’y a pas d’antagonismes, mais de la complémentarité dans ces deux approches. QUELLES SONT LES NOUVEAUX MÉTIERS DE VOTRE BRANCHE ET COMMENT CELA SE TRADUIT-IL EN TERME DE RECRUTEMENT ? Il y a une réelle différence entre le dataminer et le data scientist et ces derniers sont très rares sur le marché, les cabinets et services RH ne sont pas suffisamment experts pour les distinguer et surtout démasquer les imposteurs, car aujourd’hui tous se disent data scientists (les dataminers, data analysts, informaticiens, économètres …), car les salaires sont très attractifs.
« Aujourd’hui tous se disent data scientists » Nous sommes obligés de proposer en plus de salaires attractifs des très bons projets et de nous impliquer directement avec les RH dans le processus de recrutement.
25
Des profils exceptionnels pour une start-up d’exception Les sociétés se jettent sur la nouvelle mine d’or que constituent les données, dans le cadre de projets Big Data, de Gouvernance des Données, d’Enterprise Information Management et de Gestion des Données de Référence (Master Data Management). Semarchy, start-up fondée en 2011, reconnue Gartner Cool Vendor 2015 par Gartner, inc., édite la solution la plus rapide à déployer pour la gestion des nomenclatures et des données de référence: clients, produits, actifs, employés, hiérarchies et plus… Les produits de la plateforme Semarchy Convergence ont été spécialement conçus pour réduire les coûts et les délais des projets de Reference Data Management (RDM) et Master Data Management (MDM) qu’ils soient simples ou complexes. Nos fondateurs ont une longue histoire dans le domaine de l’Intégration de Données. Il n’est donc pas surprenant que notre approche du MDM soit fondamentalement différente des approches traditionnelles. Plutôt que d’assumer que les besoins MDM sont gravés dans le marbre avec chaque projet MDM mis en production, nous acceptons que des changements de besoins vont apparaître rapidement au cours du temps. En implémentant ce concept simple mais fondamental au cœur de nos produits, nous sommes en mesure de gérer les besoins initiaux de MDM et leur évolution, plus rapidement et à moindre coût. Nous appelons cette approche le MDM Évolutionnaire™.
SEMARCHY Une approche novatrice Contrairement aux approches traditionnelles pour la gestion des données, Semarchy vise à responsabiliser la Direction des Systèmes d’Information et les partenaires intégrateurs pour le déploiement et la maintenance de solutions de gestion des données de manière incrémentale au fur et à mesure des évolutions des besoins.
Vous voulez faire carrière dans la gestion des données ? Nous avons la meilleure technologie, et nous travaillons avec les meilleurs !
Pour permettre cela, Semarchy Convergence a été conçue sur les trois principes fondateurs du MDM Évolutionnaire :
- Meilleur rapport temps-valeur. Ne forcer aucun changement ni dans les processus métiers, ni dans l’infrastructure.
- Évolution itérative. Faciliter la tâche des architectes métiers pour concevoir et maintenir des modèles de données complets et leur permettre de modifier des domaines fonctionnels existants ou d’étendre l’initiative à de nouveaux domaines de manière simple, rapide et sûre.
- Données Sécurisées. Gérer les versions des données de référence pour permettre aux utilisateurs métiers d’y accéder et de comprendre leur évolution. La traçabilité des données doit permettre en outre de suivre une quelconque donnée jusqu’à la source qui l’a produite.
Avec cette approche et ses produits novateurs, Semarchy est plébiscité par des clients français et internationaux (Bose, Oakley, Billabong, La Redoute, La Mondiale, El Corte Inglés, Groupe Yves Rocher), et a été nommé en 2015 un des «Cool Vendor» par le cabinet d’analystes Gartner.
Semarchy est constamment à la recherche de nouveaux profils pour le développement de ses produits et de son activité. Basées en France, Californie, Angleterre et en Allemagne, nos équipes sont constituées d’individus créatifs, motivés et talentueux qui se passionnent pour les solutions novatrices dans le domaine de la gestion des données. Tous les profils aimant relever des défis nous intéressent. En évoluant dans un environnement décloisonné, innovant et motivant, tous participent à l’ensemble des activités et au succès de Semarchy.
Site internet : www.semarchy.com/fr/
27
ACCELEREZ VOTRE BUSINESS AVEC LE BIG DATA ET L’ANATYTIQUE Sogeti High Tech a développé sa plateforme «Big Data-Ealis» capable de collecter des données de différentes sources, dans le but de les analyser et de les convertir en informations compréhensibles affichées sur une interface visuelle. Interprétez toutes vos données de façon rapide et efficace • Solution préconditionnée et personnalisable selon vos exigences • Plate-forme facile à utiliser • Améliorez l'efficacité opérationnelle et gagnez du temps L’Excellence de l’Ingénierie et du Digital Manufacturing 2-10 rue Marceau 92136 Issy Les Moulineaux www.sogeti-hightech.fr
SOGETI HIGH TECH Philippe MELEARD, Vice-président Marketing & Communication Sogeti High Tech est depuis plus de 25 ans un des acteurs majeurs du marché européen de l’Ingénierie et du Conseil en Technologies. Pour continuer à être un leader, Sogeti High Tech recrute des femmes et des hommes à fort potentiel et aussi dotés de fortes relations humaines. QUELS SONT VOS DOMAINES D’EXPERTISE ? Sogeti High Tech est effectivement le pôle d’excellence de l’Ingénierie, du Conseil en Technologies, de l’Informatique Technique et Industrielle et du Digital Manufacturing du groupe Capgemini dans les secteurs de l’Aéronautique et de l’Espace, de la Défense, de l’Energie, de l’Industrie, des Transports, des Télécoms & média, et des Sciences de la vie. Sogeti High Tech possède 6 grands centres d’expertises métier complémentaires pour une offre globale sur l’ensemble du cycle de vie du produit : Le Conseil, L’Ingénierie Système, L’Ingénierie Physique, L’Ingénierie Logiciel, Le Testing et L’Informatique Technique et Industrielle. L’intégration en 2015 au sein de Sogeti High Tech des activités d’Euriware, très complémentaires, nous permet : • De renforcer très significativement notre image et notre positionnement dans le secteur de l’Énergie • De rentrer de « plain-pied » dans le monde des usines grâce aux activités d’informatique industrielle et technique d’Euriware IS et d’être ainsi présents tant dans les bureaux d’études que dans les méthodes industrielles et les usines. La cybersécurité, complétée de nos savoir-faire dans les domaines du PLM, de l’EAM, de la Business Intelligence (BI)/Big Data et de l’Internet des objets (IoT), nous permet d’incarner un positionnement unique sur le marché, centré sur le cœur de métier de nos clients : leurs produits et leurs installations industrielles. SOGETI HIGH TECH A PLACÉ L’INNOVATION AU CŒUR DE SON DÉVELOPPEMENT EN S’APPUYANT NOTAMMENT SUR SON DÉPARTEMENT R&D «HIGH TECH LABS». POUVEZ-VOUS NOUS EN DIRE PLUS ?
• Une activité d’intelligence innovation permettant de relier la technologie aux usages Une stratégie d’investissement visant à produire nos solutions pour nos clients : • Une stratégie de gestion de notre propriété intellectuelle • Un processus d’incubation de solutions innovantes • L’intégration de nouveaux business models permettant de porter nos solutions sur le marché Ainsi, Sogeti High Tech développe et industrialise des solutions à forte valeur ajoutée dans les domaines des objets connectés, des systèmes multi-agents collaboratifs, du Big Data et de la cybersécurité. COMMENT SÉLECTIONNEZ-VOUS LES JEUNES TALENTS QUI REJOINDRONT VOS ÉQUIPES ? Sogeti High Tech s’implique au quotidien pour construire des relations constructives et concrètes avec ses écoles et universités cibles. Nous inscrivons ces relations au cœur de notre stratégie de recrutement avec l’envie de faire découvrir et partager les valeurs de l’entreprise. Conduire les futurs diplômés vers l’emploi suppose de les accompagner tout au long de leur scolarité. Nos managers, nos collaborateurs et nos équipes recrutement sont impliqués dans le développement et la réalisation d’actions permettant aux étudiants d’avoir une vision opérationnelle de nos métiers. Des conférences, des ateliers, des tables rondes, des simulations d’entretien sont initiés au sein des écoles afin d’accompagner les étudiants dans leurs études et de les préparer à leur recherche de stages ou de premier emploi.
Une politique de co-innovation tournée vers nos clients et nos partenaires académiques :
Nous sommes également présents lors des forums et salons organisés par les écoles / universités. Pour nos équipes, c’est un moment privilégié qui leur permet de comprendre les attentes de leurs talents de demain et de les accompagner vers la vie active. Nous avons à cœur de sortir des sentiers battus pour capter l’attention des futurs diplômés en dehors des actions formelles.
• Des projets de R&D en co-innovation avec nos clients et avec les pôles de compétitivité • Des thèses en cours avec des universités et des laboratoires de recherche (ISAE, IRIT, ECL) • Des acteurs dans le développement des filières de l’Aérospatiale, de l’Energie, des Transports et du Digital Manufacturing.
Nous travaillons aujourd’hui avec un réseau de 30 écoles et universités. Nous sommes partenaires de certains établissements par le biais de signature de conventions de partenariat qui nous permettent de mettre en place des évènements répondant aux attentes des étudiants comme la visite de nos locaux, le sponsoring d’évènements sportifs.
L’éventail d’expertises de Sogeti High Tech s’appuie sur :
Une culture de l’innovation au service de l’entreprise : • Un département R&D, High Tech Labs, véritable incubateur d’innovations
29
l e a d e r
e u r o p é e n
d e
l a
t r a n s f o r m a t i o n
n u m é r i q u e
MARQUE DE CONFIANCE
Sopra Steria. Happy Ideas. INGÉNIEURS H/F
Chez Sopra Steria, leader européen de la transformation numérique, nous sommes particulièrement attentifs à certaines courbes : celles qui se dessinent sur le visage de nos 35 000 collaborateurs. C’est pourquoi nous leur proposons, au quotidien, un accompagnement sur-mesure, des missions variées et enrichissantes et une culture d’entreprise fondée sur le respect, le partage et l’échange. Résultat : au sein d’un groupe solide et indépendant, nos collaborateurs se montrent optimistes et confiants quant à leur avenir. Et ça se voit.
www.recrutement.soprasteria.com
Delivering Transformation. Together.
- Crédit photo : Corbis
*
SOPRA STERIA Sopra Steria, leader européen de la transformation numérique, propose l’un des portefeuilles d’offres les plus complets du marché : conseil, intégration de systèmes, édition de solutions métier, infrastructure management et business process services. Il apporte ainsi une réponse globale « Leader européen aux enjeux de développement et de compétitivité des grandes de la transformation numérique » entreprises et organisations. Combinant valeur ajoutée, innovation et performance des services délivrés, Sopra Steria accompagne ses clients dans leur transformation et les aide à faire le meilleur usage du numérique. Fort de 37 000 collaborateurs dans plus de 20 pays, le groupe Sopra Steria affiche un chiffre d’affaires pro forma 2014 de 3,4 milliards d’euros. Sopra Steria Group (SOP) est coté sur Euronext Paris (Compartiment A) - Code ISIN : FR0000050809
Objectifs de recrutement 2016 en France Le groupe annonce le recrutement de 2 000 personnes et prévoit d’accueillir 1000 stagiaires en pré-embauche et 250 alternants. Profils recherchés Nous recrutons essentiellement des jeunes diplômés de niveau BAC +5, issus d’écoles d’ingénieurs, de commerce ou d’universités. Au-delà des compétences techniques, nous cherchons chez nos collaborateurs un solide esprit d’équipe et un sens développé du service au client. Nous attendons également qu’ils soient mobiles, créatifs, autonomes et développent une agilité d’esprit et une capacité à pouvoir travailler avec des clients aux profils très variés. Postes proposés Les postes proposés de manière permanente concernent des profils de consultants et d’ingénieurs d’études, débutants ou jeunes expérimentés.
PROCESSUS DE RECRUTEMENT Envoyez-nous votre candidature à : emploi@soprasteria.com ou à stages@soprasteria.com. Une première sélection est effectuée sur CV et lettre de motivation. Vous rencontrerez ensuite un(e) Chargé(e) de recrutement et un manager au cours d’entretiens pour valider votre projet professionnel et son adéquation avec nos opportunités.
Secteur d’activité : Conseil, intégration de systèmes, édition de solutions métier, infrastructure management et business process services. Chiffre d’affaires : 3,4 milliards d’euros. Principales implantations : Plus de 20 pays dans le monde Site internet dédié au recrutement : www.recrutement.soprasteria.com
31