Archives de l’auteur

L’ère du Big Data : Le monde à la merci des données

Written by Jennifer N.. Posted in Les fondamentaux de la transformation digitale

Le Big Data est apparu dans les années 90 grâce aux améliorations des systèmes de stockage de l’information. Il a pris une ampleur telle que selon de nombreux économistes le Big Data représente l’or noir du 21ème siècle. Pour mieux comprendre ce que cela signifie, nous allons détailler les enjeux de ce phénomène.

Le Big Data signifie en français « données massives » ou encore « mégadonnées ». Il est question ici de toutes les informations que l’on peut récolter grâce à des appareils électroniques connectés. Lorsque l’on fait une recherche sur Google ou que l’on « like » une photo sur Facebook, ceci génère une information qui est ensuite stockée sous forme de données. Cependant, telles quelles, les données ne peuvent pas réellement être utilisées. Il a donc fallu créer des algorithmes assez puissants pour traiter, organiser et exploiter ces données.

Comprendre le Big Data en 5 points 

Pour mieux concevoir ce qu’est le Big Data, il est possible de le définir et de le décortiquer selon 5 paramètres clés, les 5V :

Une innovation à double tranchant 

Vous l’aurez compris, ces données représentent une mine d’or pour toute personne ou groupe sachant les maîtriser. Mises bout à bout, elles peuvent déterminer les habitudes de consommation d’une personne ou d’une population entière ou encore prédire des événements divers tels que la météo, le taux de remplissage d’un hôtel ou l’apparition de maladies. Cependant, comme dans toute technologie, des avantages et des inconvénients existent.

Les avantages :

  • Optimiser les ventes : que ce soit pour les entreprises privées ou publiques, les données sont primordiales. Elles permettent d’optimiser l’offre en fonction des clients ou utilisateurs. Ainsi les CFF sont capables de prévoir le taux de remplissage de leurs trains pour offrir à l’usager la possibilité de choisir la course qui lui conviendra le mieux. Dans un autre domaine, Apple par exemple utilise les données pour améliorer ses produits et augmenter ses ventes.
  • Aider les patients : dans le secteur médical, les données sont d’une aide précieuse lorsqu’il s’agit de mettre en place ou d’ajuster le traitement d’un patient.

Les inconvénients :

  • La protection des données : c’est l’inconvénient majeur car il est difficile de garantir une protection complète de la vie privée sur internet. En effet, on se souvient tous des scandales liés à des vols de données ces dernières années.
  • Garantir la démocratie : comment garantir une démocratie totale lorsque des informations sur le comportement de vote et sur les intérêts d’un peuple sont utilisées pour promouvoir un camp plutôt qu’un autre ? Cette problématique est parfaitement illustrée par l’affaire Cambridge Analytica.

Cette technologie étant relativement jeune, tout l’enjeu sera de trouver un équilibre pour que ces données profitent au plus grand nombre, et ce, avec le minimum d’effets négatifs.

Le développement du Big Data a été possible, grâce aux avancées technologiques de ces dernières années que nous vous avons détaillées dans nos précédents articles. Pour en savoir plus, découvrez le MOOC « Innovation, médias et transformation digitale » de l’Université de Genève. Il vous permettra de suivre des cours en ligne pour approfondir, entre autres, vos connaissances sur les fondements technologiques et économiques de la transformation digitale.

60 secondes pour mieux comprendre le Big data:

JN/LF

Suivez Medi@lab-Genève sur les réseaux sociaux :

   

Références:

La numérisation : quels enjeux dans notre société ?

Written by Jennifer N.. Posted in Les fondamentaux de la transformation digitale

Dans le cadre du MOOC proposé par Medi@LAB et l’Université de Genève, nous expliciterons les grandes phases de l’innovation et la transformation digitale, au travers de 6 articles. Cette semaine le principe de convergence et la numérisation sont à l’honneur. Cet article a pour but d’exposer brièvement les différents aspects de la numérisation.

La numérisation (source : rts.ch)

Le développement des technologies de l’information et de la communication (TIC), comme les sites internet ou les forums, a favorisé et facilité les échanges d’informations. C’est de ce contexte que la numérisation a fortement progressé, donnant accès à d’innombrables contenus de par le monde. La numérisation est le fait transformer des fichiers, quels que soient leur format (texte, audio, vidéo, photo) en données numériques afin d’être lues et traitées par un ordinateur. Elle permet de stocker et de diffuser ces documents, alors devenus électroniques. Si le phénomène de numérisation est actuellement en pleine explosion, c’est en partie dû aux progrès technologiques. Les ordinateurs étant devenus plus puissants, il est maintenant possible de stocker de plus grandes quantités d’informations. Tout ceci est expliqué dans notre précédent article sur la Loi de Moore.

Les avantages de la numérisation

Cliquez dessus pour agrandir Numérisation et convergence (source: Canva)

Comme nous pouvons l’imaginer, la numérisation de fichiers présente de nombreux avantages. Le premier étant qu’elle offre la possibilité de lire plusieurs types de fichiers sur un seul et même appareil : c’est ce que l’on appelle la convergence. Deuxièmement, elle est tout autant utile aux professionnels qu’aux étudiants. Qui n’a pas été soulagé de trouver en ligne l’article de référence tant espéré, sans avoir besoin de se rendre dans une bibliothèque ? Cette facilité d’accès à l’information est plus que nécessaire en cette période de pandémie qui force une majorité de citoyens à rester à la maison. Grâce à la numérisation, un grand nombre de documents si précieux pour l’avancée des travaux des étudiants sont rendus disponibles.

Dans les milieux professionnels, elle est aussi importante car elle permet de stocker et de rendre visible aux employés différents documents (comptables, courriers, emails, contrats etc…) essentiels au travail quotidien des collaborateurs. La crise liée au coronavirus a rappelé l’importance du partage et de la diffusion d’informations. Difficile donc d’imaginer un monde connecté sans numérisation !

Le revers de la médaille

Comme dans bien des domaines, le nerf de la guerre est l’argent. Le financement de la digitalisation des documents conservés dans les bibliothèques se chiffre en millions. C’est ainsi que Google s’est lancé dans la numérisation de livres en 2004. Ils prévoyaient de scanner 15 millions de livres en 10 ans pour un coût de 200 millions de dollars1. Au fil des années, le géant du numérique a conclu de multiples partenariats avec des bibliothèques et compte désormais plus de 40 millions de livres numérisés. Craignant un monopole de l’entreprise américaine, l’Union Européenne s’est elle aussi organisée pour créer une bibliothèque numérique : Europeana.

Même si la numérisation permet un échange de savoirs au niveau mondial et une circulation des idées sans précédent, elle reste coûteuse. Cependant, elle pourrait rapporter gros. Beaucoup de documents en ligne sont libres d’accès mais la question de la gratuité se pose déjà. Certains fichiers sont payants alors que d’autres proposent un avant-goût gratuit avant de devoir payer pour bénéficier de la totalité du contenu. La question est à présent de savoir qui sera le ou les grands gagnants de la numérisation.

Pour aller plus loin vous pouvez consulter l’article du blog traitant de l’avenir du livre.

JN/LF

Suivez Medi@lab-Genève sur les réseaux sociaux :

     

Références :

Une nouvelle ère des réseaux: les lois de Moore et Metcalfe

Written by Jennifer N.. Posted in Les fondamentaux de la transformation digitale

Evolution de la loi de Moore

 

Source: wikipedia.org

 

En 1965, Gordon Moore annonce qu’à coût constant le nombre de transistors présents dans les ordinateurs doublerait tous les deux ans. Provoquant ainsi une augmentation constante de la puissance des ordinateurs à des prix toujours décroissants.

Lorsqu’on évoque la transformation digitale, l’une des premières choses qui nous vient à l’esprit est probablement l’ordinateur. Bien que cet objet fasse désormais partie de notre quotidien et semble être un élément indispensable au fonctionnement de notre société moderne, il n’a pas toujours été si performant et facile à transporter. La loi de Moore explique en partie le progrès fulgurant de cette technologie. Pour mieux comprendre les enjeux de cette fameuse loi, un brin de contexte s’impose.

Histoire

En 1965, le premier mini-ordinateur apparaît. Un progrès majeur compte tenu de la taille des ordinateurs jusque-là. C’est l’association de deux technologies, les transistors et les circuits intégrés, qui a permis une telle innovation. Inventé en 1947, le transistor est, pour résumer, un composant d’un système électronique permettant de contrôler un courant. Plus tard, en 1958, arrive le circuit intégré, plus communément appelé puce électronique. Ces puces regroupent sur une petite surface, les composants électroniques nécessaires au bon fonctionnement des ordinateurs, dont les transistors. C’est l’alliance de ces deux technologies qui a permis d’abandonner les circuits externes utilisés jusqu’alors, réduisant ainsi l’espace nécessaire au développement des ordinateurs et ouvrant de nouvelles perspectives d’amélioration.

 

Source: thedayintech.wordpress.com & pixabay

Loi de Moore

C’est en observant les avancées réalisées à cette époque que Gordon Earle Moore – un des trois fondateurs de l’entreprise Intel – propose, en 1965, la théorie suivante : à coût égal, la complexité des circuits intégrés double tous les deux ans. Dix ans plus tard, il reformule sa proposition en précisant que ce ne sont pas les circuits qui deviennent plus complexes mais que c’est le nombre de transistors présents dans ceux-ci qui double tous les deux ans.

Qu’est-ce que cela veut dire concrètement ? Simplement que les transistors présents dans les circuits intégrés vont diminuer en taille tout en augmentant en nombre, et ce, de manière exponentielle. Ceci entraîne, chaque 24 mois, une réduction de la taille et des coûts des ordinateurs tout en augmentant leur puissance. 

Mort de la loi de Moore ?

Même si les dernières décennies ont donné raison à Gordon Moore, cette loi se trouve à la fois au cœur de la transformation digitale mais aussi aux limites de celle-ci. Avec un nombre de transistors doublant tous les deux ans, un ordinateur devient obsolète au moment de sa première utilisation. Cependant, on assiste actuellement à un ralentissement de croissance des puces électroniques qui ne se fait plus chaque deux ans. La loi de Moore serait-elle morte ? Pas vraiment. Moore lui-même avait prédit qu’à partir de 2017 cette croissance se heurterait à une limite physique : la taille des atomes. Arrivera donc un moment où il ne sera plus possible de réduire la taille des circuits. D’ici là, un autre dispositif permettra peut-être aux ordinateurs d’augmenter leur performance.

Pour en savoir plus

LFR/JNA