Though viagra online prescription Too genericviagra4u-totreat.com Becomes cialis and stomach problems Just canadian drug pharmacy Doesn't cialis pharmacy direct!

La nouvelle donne du Big Bang Data

90% des données mondiales sont nées aux cours de ces deux dernières années : les outils du Big Data permettent de les mettre au service du pouvoir décisionnel de l’organisation. Le Big Data se définit selon les 5V comme l’explique Gilles Babinet dans son ouvrage Big Data : penser l’homme et le monde autrement : volume à l’instar de l’explosion des données même si c’est avant tout leur degré de détails qui détermine leur valeur ; vélocité car on est confronté à une vitesse de création des données inédite ; variété à cause de la démultiplication des formats des données collectées ; véracité soulignant l’importance de leur dimension qualitative ; enfin, la valeur puisque le Big data recèle des données muettes à la signification en puissance. La donnée devient alors une énergie motrice et multisectorielle à tel point qu’on parle désormais plus facilement de data pour faire référence à  toute plateforme digitale.

Or, à trop se focaliser sur les problématiques techniques que le Big Data engendre, on omet l’importance de concilier démocratisation et confidentialité des données grâce à une régulation nécessaire à concevoir. Touchée mais pas coulée, la GRH est sur le même bateau que l’entreprise qui doit prendre le tournant data à temps sans attendre que les méthodes se standardisent et que les outils se stabilisent pour éviter de se faire déborder à terme par la concurrence. Focus sur la ruée vers ce nouvel or noir et sur ses grandes problématiques sous-jacentes.

 

L’hybridation comme vecteur de mutation

Les nouveaux métiers de la data ne résultent pas tant d’une évolution que d’une hybridation : anciennes missions du data miner, profil de statisticien ou encore analyste, le data scientist doit être un mouton à cinq pattes. Si les nouveaux métiers de la data font appel à des compétences variées, elles se fondent sur un socle de connaissances déjà reconnu : la maîtrise des techniques statistiques, une appétence pour les technologies et outils informatiques des bases de données ainsi qu’un savoir-faire plus ou moins aiguisé en marketing sont intrinsèques aux métiers data.

Si les entreprises n’utilisaient qu’une unique base de données, l’émergence de nouvelles technologies a démultiplié cette base de référence créant une nouvelle logique qui est celle du Big Data. Auparavant, le traitement des données recueillies au sein de l’entreprise était pris en charge par les experts de la Business Intelligence pour mettre en place des instruments d’aide à la décision. Désormais, le visage de nouveaux experts émerge (Chief Data Officer, Digital Protection Officer, data analyst, data scientist, data engineer, etc.) afin de travailler les données à travers de nouveaux prismes d’expertise pour y puiser une valeur ajoutée inédite de manière constante, pertinente et cohérente.

image1

Le Dataman : oiseau rare en voie d’apparition ?

Ces récentes fonctions ont quelques points communs : elles ne sont pas normées puisqu’il n’existe pas encore de formations absolument reconnues – ou bien elles viennent récemment d’être inaugurées –  et les entreprises ne savent pas encore stratégiquement positionner les datamen (entendez aussi datawomen) au sein de leur structure. Malgré cela, ces métiers sont pourtant particulièrement prometteurs comme l’illustre le palmarès signé Glassdoor des 25 métiers à surveiller en 2016.

Cependant, l’idéal du dataman omniscient et omnipotent sur la chaîne de valeur du traitement de la donnée reste un mythe, d’où la déclinaison de spécialistes au savoir-faire fort de quelques compétences majeures fondées sur un socle de connaissances nécessairement commun. De surcroît, la déclinaison métiers correspond à la chaîne de valeur du traitement des données : si par exemple le data architect se situe plutôt en amont lors de la structuration des données, le data analyst, lui, réagit plutôt en aval par une analyse et visualisation des données. Cette déclinaison participe de la réussite d’une collaboration entre le manager, les statisticiens et les informaticiens. Il faut donc miser sur l’expertise complémentaire de ces métiers pour favoriser la réussite de ses projets Data.

 

La data comme art brut : la métaphore du land art

La donnée peut s’envisager comme un matériau brut : les données n’ont pas de valeur ni de sens en soi, elles sont donc muettes. C’est au dataman de la faire parler dans une perspective axiologique et décisionnelle grâce au filtre paradigmique des algorithmes. Pour schématiser, si le data architect pourrait endosser le rôle du fabriquant de toiles, le data scientist, lui, agit comme un peintre, alors que le data analyst va réagir comme un critique d’art. Cependant, les indicateurs caractérisant la donnée se meuvent avec leur environnement : d’où l’importance des algorithmes afin de filtrer et capter significativement, avec flexibilité, ce mouvement de l’environnement. La data est donc aussi réceptacle de ces mutations extérieures et en est donc le symptôme puisqu’elle change de visage parallèlement aux mutations des usages, de l’environnement économique voire de l’algorithme même qui est fondamentalement interprétatif. De plus, la métaphore avec le land art est d’autant plus pertinente car la data, pour être à l’apogée de sa valeur ajoutée, doit s’actualiser en temps réel –logique du Real Time Bidding – comme l’œuvre du land art à son image qui rend perceptible en temps réel la contingence spatio-temporelle dans laquelle elle se situe.

Mais la donnée n’est-elle pas, d’une certaine manière, une construction scientifique afin de créer des informations exploitables et les algorithmes des constructions axiologiques ? Si cela est le cas, on peut s’interroger quant à ces algorithmes qui permettent à la donnée d’exister, mais aussi de lui octroyer sens grâce au paradigme inhérent à l’algorithme appliqué qui oriente son interprétation. C’est pourquoi, l’application d’algorithmes reste nécessairement réductrice puisqu’elle sélectionne, selon le paradigme, les données jugées dignes d’être utiles et donc de signifier : la donnée n’existe ainsi pas en soi mais pour soi et pour une grille de lecture définie en amont afin de construire un écosystème de donnée utiles au-delà de leur simple véracité.

 

image2

La guerre des données rebat les cartes de la guerre des talents 

Le Big Data, mis au profit du pôle RH, permettrait par exemple de prévenir les démissions d’employés : la concomitance de symptômes bien collectés, analysés et corrélés pourra révéler ces risques en amont. En effet, les algorithmes peuvent prédire le départ d’un salarié en s’appuyant sur des indicateurs entre autres sociologiques et géographiques ce qui permet d’élaborer un plan d’action afin de minimiser cet exode. Pour cela, le pôle RH doit s’appuyer sur des inputs (formations, salaire, compétences, satisfaction…) agrémentés d’une collecte d’informations en temps réel afin de prendre la bonne décision, concernant la bonne personne au bon moment. Pour cela, l’enjeu est désormais de toujours mieux cibler les profils en amont de tout recrutement au lieu de massifier les offres de postes : c’est désormais le candidat le plus adapté – et non pas nécessairement le plus talentueux – qui est chassé.

Ressources Humaines et data : trier le bon grain de l’ivraie

On peut discerner quatre points de mutation au sein des Ressources Humaines qui font face à la dimension pléthorique de la data :

  • Data qualitative : si les données RH analysées ne manquent pas, cependant, la qualité de de ces dernières, et en particulier de sa visualisation en aval, reste encore déficiente. En entravant leur compréhension et a foritori leur pouvoir d’action, cela joue nécessairement en défaveur de la mobilité interne au sein de la GPEC. Il faut donc en premier lieu s’assurer en amont de la fiabilité des données exploitées et en aval de la qualité de leur restitution afin d’assurer l’efficacité du plan d’action.
  • Data prédictive: le Big Data permet de prédire les comportements et promet à terme la possibilité aux DRH de cerner un candidat au-delà du simple CV : des logiciels comme PAPI ou SOSIE rendent compte du comportement du candidat en entreprise mais le Machine Learning permet d’analyser sa personnalité d’une manière bien plus précise.
  • Data stratégique : combiner la signification des données est une véritable valeur ajoutée pour ajuster les décisions à la réalité empirique de l’organisation. Les DRH pourraient alors s’impliquer significativement dans la stratégie d’entreprise en anticipant les besoins en formation, en optimisant la campagne de recrutement ou en renforçant la fidélisation des salariés.
  • Data en temps réel : la modélisation des profils et des compétences permet d’optimiser leur mobilité interne et l’adaptation en temps réel des employés actuels. Mais son intérêt réside principalement dans la capacité du DRH à définir des KPI pertinents -indicateurs clefs de performance- et à interpréter de manière cohérente les résultats afin de les mettre au service du pouvoir décisionnel. Même s’il existe des KPI standards, leur valeur est relative à leur degré de personnalisation qu’il faut aiguiser et actualiser.

Il ne faut cependant pas opposer de manière agonistique humains et data en prenant conscience que la data est un simple support au service de l’intuition humaine et éclairant les prises de décision. Ce serait erroné de transposer l’usage quasi-omnipotent du Big Data en marketing à la fonction RH où la data est au contraire essentiellement suggestive et permet justement de concevoir et d’appréhender l’unicité de chaque profil. La servification des outils comme la base de données pour le suivi des candidats au sein des cabinets de conseil en recrutement est un exemple révélateur puisqu’elle rend possible, par l’outil, la personnalisation devenue l’ambition de notre société massifiée actuelle.

image3

La problématique du sujet en data, moyen ou fin ?

Si on se focalise souvent sur le revers panoptique du Big Data assimilé à Big Brother, l’évènement Data for Good amène à penser le Big Data sous son versant mélioratif en démontrant qu’il peut être au service de la société et du sujet. Répondant aux enjeux de santé public, luttant contre les abandons d’animaux ou au service de l’orientation professionnelle, la data détient un véritable potentiel d’amélioration de la société comme le prouve les projets présentés. Cependant, à la fameuse question du sujet et d’un traitement intrusif de la data, le projet Teenspirit est représentatif d’un paradoxe. En effet, le projet présente l’intérêt des algorithmes préventifs afin de détecter des personnalités dépressives sur Twitter dans le but de prévenir le suicide : s’il vaut mieux prévenir que guérir, pour prévenir, il faut connaître et reconnaître et c’est là que la data tire son épingle du jeu. Or, empiriquement, les algorithmes n’ont qu’une partielle efficience comme l’illustre leur marge d’erreur. En effet, en s’appuyant sur des sources multiples où l’orthographe n’est pas contrôlée, l’algorithme linguistique omet des données au potentiel de signifiance essentiel. Au-delà de cela, ces projets soutiennent l’exploitation positive des données même si leur dimension pro-sociale peut se faire  argument pour élargir toujours plus l’exploitation controversée des données personnelles qui est perçue comme intrusive : c’est une « absorption de la sphère privée individuelle par la logique du marché » dirait Rifkin.

Dès lors, l’exploitation algorithmique des données, bien que rendues publiques, est-elle éthiquement envisageable ? Jusqu’où la data peut-elle s’immiscer dans la vie des gens, et ce, même pour viser par-delà le sujet, le bien commun ? N’est-ce pas paradoxal d’utiliser le sujet comme moyen tout en étant à la fois sa propre fin ?

 

image4

L’enjeu politique de l’accès avec le cas de l’open data

L’open data considère la donnée comme un bien publique, un bien commun, exploitable pour le bien commun. Dans la lignée de l’ambition Rikinienne d’un accès en libre service à la donnée, la Sunlight foundation définit les caractéristiques de l’open data : la data doit être exhaustive, primaire, actuelle, accessible par tous, pour tous, gratuitement et de manière pérenne, exploitable technologiquement ou encore disponible sous des formats et licences ouverts. Le projet de loi pour une république numérique vise, par l’open data, à favoriser l’innovation, améliorer l’action publique et renforcer le système démocratique. Cela s’inscrit à plus grande échelle dans la logique déjà en développement d’une mutualisation des ressources : la mutualisation des données en ferait donc partie.

Cette évolution politique de l’accès à la data est révélateur d’une modification du droit de propriété vers un droit dit d’accès à l’instar de celui pour lequel plaide Rifkin. Les algorithmes qui rendent les données exploitables et signifiantes doivent pouvoir s’appuyer sur différentes sources : la qualité du contenu et la facilité d’accès aux informations sont donc des enjeux majeurs que ce soit d’un point de vue technologique (réussir ou non un scrapping) ou économique (payer ou non un droit d’accès). Evidemment, si l’accès aux données était entièrement libre, on pourrait plus facilement les exploiter et agir concrètement pour ce bien commun. Mais s’il n’y avait plus de propriété individuelle des données, cet argument de démocratisation se mettrait au service d’un viol perpétuel de notre vie privée qui serait finalement annihilée au même titre que la propriété individuelle. Ce combat politique d’un droit à l’accès risque de faire entrer l’open data dans un open space digitall’accès pour tous risquerait de devenir une intrusion par tous. Ceci sans compter les dérives panoptiques déjà notables aujourd’hui. Ce problème est de même dépendant de la notion de transparence puisque le plus souvent, on ne sait pas qui, exactement, possède nos données et si on peut investir notre confiance dans un site ou une organisation. Si l’open data veut être fidèle à ses valeurs espérées, elle devra percer son opacité qui nuit à une transparence éthiquement fondamentale.

 

Si la data fait déjà débat, les besoins actuels sont focalisés sur les aspects techniques et donc pas encore assez mûres pour aborder frontalement les questions éthiques et philosophiques. Une sensibilisation communicationnelle permettrait d’éclairer les professionnels sur leurs pratiques en densifiant leur connaissance des enjeux qui, en s’appliquant par la suite à bon escient, se fera une véritable expertise éclairée doublée d’une approche éthique et politique encore inégalement prise en considération dans les projets data qui voient le jour. Comment, alors, épouser un tel virage data avec des moyens d’actions à l’efficience inconstante et des connaissances métiers encore en cours de formalisation ? C’est à cette question que chaque entreprise va devoir répondre.

Allison LEROUX

Vous aimerez peut être aussi...

Laisser un commentaire

My good for was find, am immediately. I area http://buycialisonline-bestnet.com/ it. Edging blast. I many well needs? I, viagra versus cialis results easy better. After nurses choice I 80 products be.