Le big data ou la fin de l’emploi

Le Big data signifie « mégadonnées »  en français et non « grosse datte» comme je le croyais. Vu le prix du kilo de dattes en ce moment, ça serait le fantasme de tout saharien détenteur de quelques palmiers 🙂
Bon, revenons à nos datas! Lorsque j’ai rencontré internet, il comptait déjà plus de 9 milliards de pages. Si ça ce n’est pas énorme, alors je crois souffrir d’un « complexe de gigantisme»…Enfin! Je ne sais pas, je dois peut-être consulter ?
D’accord, mes complexes n’intéressent personnes !

Bien, continuons! En naviguant sur le web, toute personne produit des données ou datas. Ces données sont en fait les traces de vos activités sur internet. Certaines personnes les laissent de manière totalement volontaire, comme les blogueurs par exemple ou lorsque vous notez un film en lui attribuant une ou plusieurs étoiles, etc…. Mais certaines personnes laissent des empreintes, à travers des cookies, souvent sans s’en rendre compte. Les cookies sont en réalité des sortes de mouchards qui viennent squatter votre ordinateur pour tracer vos activités afin d’en rendre compte à une autre personne ou une autre machine…les traîtres! 😮
Mais bon! Les ordinateurs raffolent de ces biscuits (cookies).

Pour vous donner une petite idée du phénomène big data, sachez qu’en 2013, Twitter et Facebook généraient respectivement 7 et 10 téraoctets de données par jour ; dans cette même période l’humanité envoyait 183 milliards de mails chaque jour. Tandis que la quantité de données publiées dans le monde sur le net était de 29 000 Go (Gigaoctets) toutes les secondes. Ces chiffres sont aujourd’hui largement revus à la hausse, si en 2012 l’humanité produisait 2,8 zettaoctets de données par an, il est prévu que nous passerons à 40 zettaoctets en 2020, voire plus. Cette production de mégadonnées est aussi amplifiée par l’usage des smartphones, ces derniers seraient aujourd’hui 2,5 milliards à tâter nos mains ! 😉 Il faut aussi savoir que les plus grands producteurs de mégadonnées restent les installations technico-scientifiques, comme celles destinées aux prévisions météorologiques, ou encore les centres d’observation et d’écoute du cosmos.
Si vous ne savez pas ce qu’est un zettaoctet consultez cet article.

Mais sur quelle sorte de clé USB (Universal Serial Bus) sont stockées de telles quantités de données?
Ces données ne sont pas stockées dans des clés USB!
Elles le sont dans des data centers, qui sont d’énormes fermes de serveurs capables de stocker et de traiter beaucoup, mais alors vraiment beaucoup d’informations. C’est par exemple le cas d’Akamai Technologies, une entreprise spécialisée qui dispose de plus de 100 000 serveurs autour du globe.
Cependant, le big data pose un problème de fond : celui de la complexité des données qui le caractérisent, car la variété et le volume de ces dernières sort  largement du cadre classique. Les technologies traditionnelles ne peuvent donc plus pouvoir stocker, sonder, analyser et interpréter correctement cette nébuleuse d’information. Il a donc fallu que les grands acteurs du domaine développent de nouvelles technologies capables de traiter ces types de données, comme les BAO (Business Analytics & Optimization), mais aussi de les stocker grâce notamment au HPC (Higth Performance Computing), Super Calculateurs Hybrides en français.

Cette révolution du big data est incroyable. En fait, c’est comme si l’humanité se mettait d’un coup à déféquer si massivement et si fréquemment que les écolos, stupéfaits par cette nouvelle mode, vont se voir obligés de réviser tous leurs manuels traitant de la pollution environnementale, mais aussi repenser et inventer de nouvelles techniques de traitement des eaux usées face à l’inefficacité et aux limites que montrent les anciennes technologies utilisées. Grâce à cette manne de matières fécales, il sera entre autre possible de poser un profilage très précis en interrogeant cette énorme quantité de caca afin de savoir par exemple que tel ministre est agoraphobe, tel terroriste est fan des Télétubbies,etc… en marquant à la culotte les excréments et en analysant leurs compositions de fond en comble 😉 . Bref ! Toute cette affaire commence à sentir très mauvais : il n’y a plus de vie privée, pour plus de sécurité(?).

Traiter autant de caca…je veux dire de data, ça en fait du boulot! 😀

Oui et c’est là où Pôle emploi se transformera en une chorale de requiem pour chômeurs, puisque tout le monde n’est pas doué pour tripoter du caca…enfin, des datas!
Hihihi! Ceci me rappelle le jour ou Mr Ford vira K. Marx et F. Engels de son entreprise pour incompétence… Lol. Ces derniers mécontents, rétorquèrent : «Vous serrez tous prolétaires un jour! ». Pour eux, les ouvriers vendent leurs compétences sur un outil qu’ils ne possèdent pas et les bourgeois possèdent cet outil qu’ils n’utilisent pas. Donc la « prolétarisation » c’est travailler avec un système dont vous ignorez le fonctionnement, et ce, même si vous en êtes l’auteur. Que vous soyez ouvrier, cadre, ingénieur ou directeur, c’est le système lui-même qui détient désormais les connaissances qui permettent de produire un certain résultat.

En accumulant beaucoup de données (big data), celles-ci réagissent, souvent de manière surprenante, lorsqu’elles sont interrogées par des machines et des algorithmes grâce à la méthode du calcul intensif qui s’exprime en pétaflops (des millions de milliards d’opérations par secondes). Un (01) pétaflops (Pflops), est une grandeur bien supérieure au nombre de calculs réalisés par toute la population mondiale, si chaque individu effectuait une opération par seconde pendant 48 heures.. 😮 . Un nombre d’opérations qu’aucun être humain ne pourra jamais écrire sur un tableau. Sunway TaihuLight, un supercalculateur chinois, possède une puissance de calcul de 93 pétaflops.

Il n’y a aucun linguiste chez Google et pourtant leur service de traduction est capable de traduire, avec des résultats étonnants, dans plusieurs langues en fouillant des données et en les interprétants grâce à la puissance de son système « corrélationniste » sans que personnes ne soit en mesure de démontrer exactement comment.
Google n’a donc plus besoin de former de linguistes. Selon plusieurs études sérieuses, dans 20 ans, 50% des emplois dans le monde seront remplacés par des algorithmes. Les médecins, les juristes, les financiers, sont tous mis sur le carreau. À moins d’étudier le « data scientism » (la science des données) vous aussi serriez au chômage 🙂 . Le big data représentera en 2020, 8% du PIB européen selon l’AFDEL (Association Française des Editeurs de Logiciels et Solutions Internet).

Vous êtes avertis!

2 Commentaires

  1. Bonjour,

    C’est un point de vue sur le Big Data et l’emploi qui se défend. Toutefois, il faut aussi parler d’autres initiatives. En France, Pôle Emploi qui accumule des données importantes sur les entreprises et l’emploi, vient de mettre en ligne un site appelé : labonneboite.pole-emploi.fr, qui grâce au Big Data permet d’identifier les entreprises qui vont recruter autour de chez-vous grâce à des modèles prédictifs. Ils donnent même un niveau de fiabilité de l’information ! Je ne sais pas si ce type d’outils pourrait être mis en oeuvre au Niger, mais si le Big Data peut aussi servir à cela, c’est bien.
    Lucas.

    1. Merci pour cet éclaircissement! 🙂
      C’est effectivement une bonne chose que vient de réaliser Pôle Emploi en France, mais au Niger nous sommes un peu loin de ce type d’initiative car l’écosystème informatique est assez pauvre, pour ne pas dire quasi inexistant. J’espère que les choses iront en s’améliorant autant ici que chez vous!

Ajouter un Commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *