Google Arts & Culture : la culture accessible à tous

Sorti en 2016, Google Arts & Culture, anciennement Google Art Project, rend accessible gratuitement des millions d’œuvres et de lieux touristiques aux internautes. Disponible sur internet, via une application mobile ou grâce à une extension sur Google Chrome, ce service met la technologie et la puissance du géant américain au service du patrimoine mondial, de l’éducation et de l’accessibilité.

Une collection gigantesque :

Avec plus de 32 000 œuvres et 128 mouvements artistiques à sa sortie ce service propose la plus grande collection d’art en accès libre. Un large choix de critères de recherche vous permettront de trouver l’information que vous souhaitez le plus rapidement possible.

Si ce que vous recherchez sont des informations sur l’aquarelle, sur un évènement historique ou tout simplement de voir les œuvres de façon chronologique dans l’histoire la base de données pourra sans aucun doute répondre à vos interrogations. Vous pouvez aussi trouver toutes les œuvres répondant à un mot clés, naviguer par couleur et créez vos propres favoris.

Pour faire vivre cette collection Google met en avant chaque jour des œuvres, expositions, collections, monuments ou thématiques permettant aux utilisateurs de les découvrir ou les redécouvrir.

La technologie au service de la culture :

Plus qu’un musée sur internet, Google Arts & Culture constitue une archive du patrimoine mondial. Grâce à la technologie Street View de Google des centaines de lieux culturels comme le château de Versailles, Stonehenge ou le Taj Mahal sont visitables via son ordinateur ou un casque de réalité virtuelle.

Les tableaux ont été numérisés via un appareil photo robotisé. Ce système permet une très haute définition donnant la possibilité aux utilisateurs de zoomer pour admirer les moindres détails de l’œuvre.

Google Arts & Culture vous permet de trouver les musées les plus proches de vous ainsi que leurs horaires, leurs tarifs et leurs sites internet.

Vidéo de présentation de l’appareil photo robotisé.

L’application mobile dispose d’une reconnaissance d’œuvre d’art permettant aux utilisateurs de scanner une œuvre dans un musée pour en apprendre davantage sur celle-ci. Pour un aspect plus ludique l’application vous proposera, grâce à la reconnaissance faciale, de trouver votre « sosie » dans sa base de données et vous donnera un pourcentage de ressemblance ainsi que des informations sur l’œuvre en question.

La dernière technologie utilisée par Google sont les vidéos 360°. Vous pourrez, grâce à celle-ci, faire la rencontre d’un géant du jurassique, admirer la nébuleuse d’Orion ou bien découvrir l’intérieur de l’Opéra national de Paris. Accessibles via une simple vidéo Youtube, ces expériences nécessitent néanmoins un casque de réalité virtuelle pour en profiter au maximum.

Nous pouvons donc constater que grâce à ce service Google compte bien démocratiser et rendre accessible au plus grand nombre la culture. Mais le but est aussi de rassembler sur un même site un maximum d’œuvres pour permettre aux utilisateurs de trouver l’information qu’à un seul endroit. L’exemple le plus parlant date de 2018 lorsque la collection « Face of Frida » est mise en ligne, c’est la plus grande exposition entièrement consacrée à Frida Kahlo et compte pas moins de 800 œuvres.

Néanmoins le projet aura connu depuis son lancement des polémiques autour du droit d’auteur. En effet ces œuvres sont soumis au droit de reproduction et au droit de diffusion, deux droits appartenant au créateur de l’œuvre. Même si à son lancement Google mis en ligne seulement des œuvres tombées dans le domaine public, aujourd’hui nous pouvons retrouver des œuvres de Pablo Picasso dont les droits s’arrêteront en 2044, soit 70 ans après la mort de l’artiste.

Ces polémiques reviennent régulièrement dans les médias mais aucune condamnation n’a été, à ce jour, prononcé contre Google.

LES OUTILS NUMÉRIQUES COLLABORATIFS

Des travaux de classe en groupe aux projets collaboratifs avec des collègues, tout le monde utilise des outils numériques collaboratifs.  Ils sont en effet devenus de plus en plus présents dans nos vies avec l’ascension du numérique depuis quelques années. Cet article a pour but de vous en présenter quelques-uns.

La suite Google

La G Suite a été créée en août 2006 par Google et lui appartient. Par conséquent, elle appartient à Alphabet, la maison-mère de Google. Grâce à leur adresse Gmail, les utilisateurs peuvent avoir accès à plusieurs outils et peuvent collaborer avec d’autres personnes. La G Suite étant gratuite, elle est par conséquent accessible à tous et permet de fidéliser les utilisateurs.

La G suite se compose de 19 outils différents répartis en 4 catégories (Communiquer, créer, accéder, contrôler). Les outils phares de Google restent sa boite mail (Gmail), les outils de traitement de texte (Google Doc, Google Slide, Google Forms et Google Sheets) ainsi que l’agenda Google.

Les avantages de la G suite :

  • Facilité d’utilisation
  • Compatibilité avec les appareils mobiles
  • Pas d’arrêt pour la réalisation de maintenance
  • La collaboration en temps réelle
  • Possibilité de faire des modifications en mode hors ligne
  • Possibilité d’accéder aux documents en mode hors-ligne
  • Les mises-à-jours se font automatiquement pour que l’utilisateur travaille toujours sur la dernière version

Les contraintes de la Gsuite :

  • Googles Docs, Slide et Sheets sont moins développés que leurs concurrents chez Microsoft
  •  Il faut payer pour accéder à un espace de stockage illimité
  • Efficacité limité lorsque le document est trop long
  • Efficacité limité lorsqu’il y a trop d’utilisateurs connectés sur le même document

Présentation des divers composants de la suite Google (Google sheets, doc, slide, contact, drive, gmail, agenda)

La suite Microsoft

La Suite Microsoft date des années 1990. Elle appartient à l’entreprise du même nom qui fut créée une quinzaine d’années auparavant par Bill Gates et Paul Allen. Le but de la suite est de permettre à tous les utilisateurs qui font tourner le programme Microsoft d’avoir accès à des logiciels de traitement de texte, présentation et feuilles de calculs adaptés. À cette époque cependant, ce n’est pas encore collaboratif. Il le deviendra seulement beaucoup plus tard avec l’arrivée de Microsoft Teams en 2017 qui permet aux utilisateurs ayant un compte Microsoft de travailler ensemble sur des documents, de se partager des documents et de pouvoir chater sur la même interface de travaille.

La suite Microsoft ou Microsoft Office se compose de 7 logiciels : Word, Excel, PowerPoint, OneNote, Outlook, Access, Publisher et depuis peu de Microsoft Teams.

Les avantages sont :

  • Facilité d’utilisation
  • Existe une version pour les appareils mobiles
  • Les logiciels sont très développés et proposent beaucoup de fonctionnalités
  • Mises-à-jours gratuites
  • Les étudiants y ont accès gratuitement

Les contraintes sont :

  • Il faut payer pour y avoir accès
Présentation des divers composants de la suite Microsoft Office (Word, Excel, PowerPoint, Outlook, Access, ...)

Des outils utiles dans les métiers de la communication

Une personne travaillant dans le domaine de la communication a besoin d’être organisée afin de tenir les deadlines et être efficace. Ainsi, il est conseillé de connaître quelques outils de gestion de projet. Il existe par exemple Trello qui permet à chacun de pouvoir émettre des propositions sur le sujet dont il est question au moyen de « cartes ». Il est également possible d’ajouter des dates limites, rappels et d’indiquer quelle personne doit réaliser quelle tâche. Discord, Messenger, WhatsApp et toutes autres applications permettant les discussions de groupes peuvent être considérés comme des outils de gestions de projets puisqu’elles permettent aux différents membres d’une équipe de communiquer ensemble et d’échanger des documents au besoin. Cependant Messenger a une fonctionnalité en plus que les autres applications de discussions : il permet de créer des événements, sondages et des rappels.

Dans le milieu de la com’, et en particulier du community management, il est essentiel de maîtriser le rythme de publication des différents posts sur tous les réseaux sociaux de la société. Pour cela, il est recommandé de se rendre sur l’outil Facebook Creator Studio, qui est gratuit et permet de synchroniser les comptes Facebook et Instagram ensemble tout en préparant les futures publications. Il est également possible d’utiliser des outils de programmation efficace et peu chers tels que Hootsuite et Buffer (qui deviennent collaboratifs uniquement à partir du moment où l’on prend le forfait payant). Très simples d’utilisations et assez intuitifs, ils permettront à tout à chacun de s’y retrouver dans le planning des publications.

Le graphisme, bête noire de certains et terrain d’amusement et d’expression pour d’autres. En effet, il est possible de collaborer avec d’autres personnes et gratuitement sur Canva. Un outil très simple d’utilisation qui permet de produire des designs assez facilement. C’est l’outil magique pour tous ceux qui ne maîtrisent pas Indesign. Il existe d’autres outils, semblables à Canva tels que Desygner et Crello, qui ont pour avantage de permettre le redimensionnement gratuit. Ces outils sont semblables du point de vue de l’interface et des possibilités de création. Ils sont le moyen le plus simple de créer des visuels pour toutes les occasions.

Nous pouvons donc conclure que les outils numériques collaboratifs sont devenus indispensables dans le travail des communicants. De plus, il est possible d’en trouver des gratuits, ce qui permet aux étudiants ou aux jeunes entrepreneurs de pouvoir travailler en équipe sans pour autant devoir dépenser des sommes astronomiques pour obtenir des logiciels payants.

Quand les fêtes de fin d’année prennent une part importante dans la communication digitale

Chaque année est faite d’événements récurrents, qui reviennent tous les ans, sur lesquels les communicants diffusent de l’information. C’est ce que nous appelons un marronnier. Un marronnier, dans le domaine du journalisme et de la communication, est un article ou une publication sur les réseaux sociaux présentant des informations dites de faible importance consacré à un événement récurrent et prévisible dans l’année. Il demande peu de travail en amont, mais il reste important d’y réfléchir car il ne faut pas passer à côté pour un communiquant.

Le terme de “marronnier” provient d’un marronnier rose qui, tous les ans aux premiers jours du printemps, fleurissait au-dessus de la tombe des Gardes Suisses, tués lors de l’invasion du Palais des Tuileries le 20 juin 1792 à Paris. Ainsi, chaque année, un article paraissait dans la presse.

Le mois de décembre concentre un des plus célèbres marronniers :  des plus riches ce qui inspire les entreprises et institutions publiques. Prêts pour un petit tour d’horizon des événements qui marquent chaque année le mois de décembre?

Le bonnet du Père Noël

Quoi de mieux pour être dans l’atmosphère des fêtes de fin d’année qu’une refonte du logo d’une organisation ! L’accessoiriser de son plus beau bonnet de Père Noël donne une image plus sympathique auprès de l’audience voire même une image humoristique comme le fait Netflix, qui a choisi l’autodérision.  

Le calendrier de l’Avent

Qui dit Noël, dit aussi calendrier de l’Avent ! Cette tradition, destinée à faire patienter les enfants jusqu’au 25 décembre, est réutilisée par les organisations dans le but de fidéliser leurs clients. Proposer chaque jour de remporter un lot de cadeaux de la marque ou en lien avec l’univers de l’organisme est un moyen stratégique pour créer de nouvelles interactions. Ci-contre, vous pouvez observer la façon très esthétique par laquelle la marque Printemps Paris de proposer un concours sur son compte Instagram. Chaque jour, le community manager produit un post avec le contenu du concours en jeu et le repartage via les stories en incitant les participants à mettre en avant leur action dans leurs stories personnelles. À défaut de ne pas proposer un concours, certaines organisations proposent des comptes à rebours afin de faire patienter leur audience jusqu’au jour J. 

La journée internationale du pull de Noël

Le lundi 16 décembre est célébré la journée internationale du pull de Noël. Une occasion qui permet de se rassembler autour d’un chocolat chaud avec son plus beau pull sur les épaules. Twitch, la plateforme de streaming de jeu vidéo, a utilisé cette journée pour faire rencontrer sa communauté, notamment à Portland où les personnes ont joué le jeu de porter leur magnifique pull de Noël.

Le Père-Noël

La communication durant les fêtes ne serait pas la même si on ne parlait pas du Père Noël ou de “Papa Noël” ! Les entreprises utilisent son image de façon humoristique : en effet, Orange a choisi de mener une chasse au Père Noël dans ses boutiques. Le hashtag #AttrapezNoël a été lancé dans le but d’engager l’audience autour de la recherche spectaculaire de cette chasse au Père Noël.

Un autre hashtag et un concours ont été lancés, cette fois-ci, par Interflora. La marque propose un concours à destination de la “twittosphère” avec le #PetitsPapasCM. Le but : dans un hotte, tous les community managers d’une quelconque marque ou organisation publique proposent un lot à remporter dans la hotte du Père Noël. Ce hashtag est monté en Top Tendance des hashtags en France ces dernières semaines, ce qui met en avant l’engagement des différentes communautés dans un seul et même concours. 

Par conséquent, on remarque qu’un marronnier connaît une réelle force dans la communication des organisations ainsi que dans les lignes éditoriales des community managers et des journalistes. Un conseil : intégrez-les au plus vite de façon originale ! 

La promotion de 2019 – 2020 de la licence professionnelle communication publique et outils numériques vous souhaite d’excellentes fêtes de fin d’année !

5 conseils pour améliorer le référencement de son site web

Le SEO Camp Day est revenu à Metz ce vendredi 6 décembre pour une cinquième édition. Comme chaque année, cet évènement donne l’opportunité d’assister à plusieurs conférences animées par des intervenants de renom dans le domaine du référencement et du digital marketing. L’occasion ici de revenir sur 5 bonnes pratiques pour référencer son site en 2019. 

Qu’est-ce que le SEO ?

Le SEO (Search Engine Optimization) est l’acronyme qui signifie « Optimisation pour les moteurs de recherche » en français. C’est un ensemble de techniques permettant de faire apparaître un site web sur les moteurs de recherche dans le but de le rendre visible auprès du public. L’objectif du SEO est d’améliorer la visibilité d’un site et de le propulser dans les premières pages de résultats de recherches (SERP) pour répondre aux besoins des utilisateurs. Le SEO est également appelé « référencement naturel », en opposition au SEA (Search Engine Advertising) qui tire ses résultats d’un référencement payant. 

Selon une étude, Google est le moteur de recherche le plus utilisé par les utilisateurs français puisqu’il représente à lui seul 94,2% des parts de marchés en France. Ainsi, utiliser Google pour orienter sa stratégie SEO semble être un choix pertinent. 

Part de marché des moteurs en France (infographie WebRankInfo)

Les bons réflexes à adopter pour optimiser au mieux son SEO sur Google

Proposer des contenus de qualité 

Optimiser le contenu d’un site web passe en premier lieu par la qualité du contenu qui sera proposé. Un contenu de qualité c’est un article bien écrit, clair et structuré. Il est important de penser à mettre à jour les articles ou de supprimer ceux qui sont obsolètes. C’est aussi des informations vérifiées et en lien avec le sujet. Concernant la longueur des articles, plus l’article est long et plus Google le jugera de qualité. Une longueur d’article de 1500 mots environ semble être une moyenne correcte pour être considéré comme un bon article par le moteur de recherche. 

Le titre joue lui aussi un rôle majeur dans la qualité du contenu puisqu’il incite les internautes à cliquer sur l’article lorsque celui-ci apparaît dans la barre de recherche. Il faut alors veiller à ce que le titre soit attractif et en cohérence avec le sujet. 

Avoir un contenu de qualité permettra de gagner en réputation, second critère à ne pas négliger dans l’optimisation du SEO.  

Backlinks et PageRank 

Les backlinks ou « liens entrants » en français, désignent les liens hypertextes à l’intérieur d’un contenu pointant vers un autre site. Ils renvoient, contrairement aux liens internes, exclusivement à un contenu disponible sur un même site. 

 Il est pertinent de placer les backlinks à l’intérieur d’un paragraphe de texte afin que ceux-ci soient visibles par les internautes. Les backlinks permettent d’indiquer à l’internaute l’emplacement externe d’une information et de transmettre la popularité du site web. 

L’algorithme PageRank, ou « Indice de popularité », est un algorithme du moteur de recherche Google. Le PageRank ne prend pas uniquement les liens entrants mais étudie également la qualité des sites qui parlent d’un autre site et qui utilisent des liens sortants. Ainsi, plus les gens parlent d’un site, plus le PageRank est élevé.

Comportement des internautes et mots clés stratégiques 

Les mots-clés en SEO ont un impact très important dans l’optimisation d’un site web. Ce sont les idées et les mots qui définissent le contenu d’une page web et font le lien entre les recherches des internautes et le contenu du site web. 

La définition des mots clés doit répondre à une question principale : « Qu’est-ce que souhaite savoir la cible, l’audience sur le site web ? » Il est donc important de bien déterminer sa cible en amont afin de viser du mieux possible les attentes des internautes. 

Il existe plusieurs critères permettant de trouver les mots clés qui référenceront au mieux un site web : 

  • Obtenir un maximum de requêtes mensuelles,
  • Être le moins concurrentiel possible,
  • Définir au mieux le thème du site,
  • Être déclencheur d’une intention de la part de l’internaute (prise de contacts, inscription à une newsletter…). 

Le chargement de la page et le taux de rebond

Le chargement de la page est lui aussi un critère à ne pas négliger dans l’optimisation du SEO. Selon Google, 70% des pages nécessitent 7 secondes pour que la partie haute du contenu soit chargée et 10 secondes pour qu’elle soit chargée totalement. Plus l’internaute attend le chargement de la page, plus il aura tendance à la quitter si celle-ci prend trop de temps à charger. 

Le taux de rebond est un indicateur pertinent pour comprendre le comportement des internautes qui visitent un site web.  Il représente le taux de visiteurs quittant le site sans avoir parcouru d’autres pages. Ainsi, un taux de rebond élevé n’est pas un élément positif puisqu’il correspond au nombre de visiteurs venant sur un site en ressortant aussitôt, sans cliquer sur un lien ni ouvrir une autre page.  

L’analyse du SEO

Les recherches organiques (recherches effectuées via les moteurs de recherche) génèrent plus de la moitié du trafic web. C’est 95% des liens cliqués qui sont issus de la première page de résultats. Les 5% restants correspondent donc au nombre de clics pour tous les autres résultats.

Une perte de trafic s’observe lorsque le site n’atteint pas les premières positions dans les pages de résultats. Analyser régulièrement son site web permet de mettre en exergue les points négatifs qui empêchent cette baisse de trafic et le bon positionnement dans les pages de résultats des moteurs de recherche. 

Il existe plusieurs outils d’analyse SEO qui permettent de mettre en lumière les points à améliorer mais l’outil incontournable aujourd’hui reste Google Analytics. Outil gratuit d’analyse SEO proposé par Google, il permet l’analyse de l’audience d’un site web et permet de réunir diverses informations sur les utilisateurs et leur comportement. Il permet aussi de déterminer la qualité des mots clés utilisés et analyse les performances de vitesse du site web. 

Optimiser son référencement naturel, c’est donc apporter une meilleure visibilité au site web sur Google, mais aussi sur les autres moteurs de recherche. Sur le long terme, le SEO permet de multiplier son nombre de visiteurs.

Un site correctement optimisé sera qualifié de « SEO friendly » par Google, ce qui l’amènera à voir son positionnement augmenter dans les pages de résultats. Il est important de noter que 91% des clics sur Google sont réalisés sur la première page, et entre 70% – 77% des clics sont réalisés sur les cinq premiers résultats. D’où l’importance de bien optimiser son SEO pour avoir un maximum de visibilité sur les moteurs de recherche.  

2019 : l’État toujours en faveur des logiciels libres ?

Maîtrise des coûts, recherche d’efficacité, développement des nouvelles technologies, l’État français fait-il toujours preuve d’un grand enthousiasme vis-à-vis de l’utilisation de logiciels libres ?

Qu’est-ce qu’un logiciel libre ?

Un logiciel libre est un logiciel qui est soumis aux droits de son auteur, ce dernier définit les droits donnés à l’utilisateur. Aujourd’hui, on distingue trois types de licences libres qui sont réparties par famille selon le degré de liberté qui leur est accordé en terme de redistribution. Le degré le plus faible est celui du domaine public, dans ce cas, le logiciel appartient à tout le monde, donc les droits d’auteurs ont expiré. Ils existent d’autres types de licences : licences libres strictes, licences semi-libres. 

En résumé, un logiciel est considéré comme libre seulement s’il garantit quatre libertés fondamentales :

  • La liberté d’utiliser le logiciel ;
  • La liberté de copier le logiciel ;
  • La liberté d’étudier le logiciel ;
  • La liberté de modifier le logiciel et de redistribuer les versions modifiés.

Voici donc quelques exemples de logiciels libres : 

  • Lecteur média : VLC ;
  • Traitement de l’image : Gimp, Inkscape ;
  • Bureautique : OpenOffice.org ;
  • Traitement du son : Audacity ;
  • Éditeur de texte : Notepad ++ ;

Naissance 

Jusque dans les années 70, les logiciels offraient aux utilisateurs la possibilité de modifier les réglages permettant d’utiliser le matériel informatique puisque l’accès au code source était considéré comme normal. À cette époque, la notion de droit d’auteur s’appliquant aux logiciels n’était pas réellement définie. Cependant, dès le début des années 80, des licences d’utilisations apparaissent et les éditeurs de logiciels commencent à être reconnus. De cette façon, la vente de logiciels devient importante et l’accès, l’étude ou encore l’amélioration des codes sources est impossible, et même interdite. Richard Stallman qui est alors chercheur dans un institut de technologie au Massachusetts a l’idée de créer au cours des années 80 un projet nommé GNU ainsi qu’une fondation, la Free Software Foundation. Cette dernière définira avec précision le principe du logiciel libre ce qui donnera lieu à un cadre juridique précis concernant le développement du libre en toute légalité. 

L’État recommande la solution libre

Logo du SILL
Logo du SILL

Pendant de nombreuses années, les administrations françaises utilisaient de façon majoritaire des outils issus d’éditeurs de licence notamment la suite Microsoft. Toutefois, une dimension économique et un questionnement sur leur efficacité ont poussé l’État à inciter l’utilisation des logiciels libres au sein des administrations ou encore des collectivités. C’est ainsi que le 31 août 2011, François Fillon alors Premier ministre demande aux ministres de veiller à la généralisation de l’usage de format libre et ouvert par les administrations. En revanche, la plus grande implication de l’État dans ce domaine reste la publication le 9 septembre 2012 de la circulaire de Jean Marc Ayrault, Premier ministre qui par ce document définit les orientations pour l’usage du logiciel libre dans l’administration. 

 Les administrations qui ont opté pour le logiciel libre.
Les administrations qui ont opté pour le logiciel libre.

Aujourd’hui, on constate que les administrations et les collectivités ont encore pour une majorité d’entre elles des partenariats avec les géants américains. Pourtant, en 2018 près d’un tiers des collectivités se serait équipée de cette solution suite à des restrictions budgétaires. De plus, Pascal Kuczynski, délégué général de l’Association des développeurs et des utilisateurs de logiciels libres pour les administrations et les collectivités territoriales (Adullact), assure qu’il y aurait plus d’une dizaine de milliers de collectivités territoriales qui auraient opté pour le libre. Le logiciel libre est donc en constante progression, cela grâce à l’influence de l’État sur l’utilisation du libre par les collectivités et les administrations. Cette influence passe notamment par la diffusion chaque année du SILL (Socle Interministériel des logiciels libres) qui est une liste de logiciels libres recommandés par l’État. Instauré pour la première fois en mai 2013, le SILL 2019 a lui été communiqué en mai dernier, l’intérêt de l’État pour les logiciels libres est donc toujours d’actualité. 

Les enjeux du libre au sein de l’État

Les logiciels libres deviennent de véritables enjeux pour l’État, car en premier lieu, on observe que ce dernier consomme les logiciels libres, d’un côté en les utilisant dans les Directions des Systèmes d’Information mais également par les agents publics dans leur quotidien. Ensuite, on se rend compte que certaines administrations développent et publient elles-mêmes des logiciels libres. Cela devient un véritable enjeu car ça permet de créer des solutions qui sont conçues pour répondre aux mieux aux besoins des utilisateurs mais en plus, lorsqu’ils sont partagés, ces logiciels contribuent aux biens communs numériques. Les logiciels libres offrent également à tous ceux qui les utilisent une sécurité supérieure à celle des autres logiciels grâce à notamment la rapidité du maintien du niveau de sécurité. Un des enjeux majeurs du passage au libre est également la dimension économique. En effet, le passage au libre n’est pas totalement gratuit, il engendre tout de même des coûts liés aux services car le logiciel doit correspondre aux besoins de l’entité qui l’utilise. Toutefois, les dépenses restent moindres par rapport à une dépense liée à l’acquisition d’une licence. 

Le Libre sur la place à Nancy : retours d’expériences et innovations publiques.

Les manifestations concernant le logiciel libre se multipliant, le mardi 26 novembre 2019 s’est déroulée la quatrième édition du Libre sur la place à l’hôtel de ville de Nancy. Cette journée à l’initiative de la Direction Nancy Ville Numérique s’adresse à tous les acteurs des collectivités territoriales, mais également à d’autres organismes publics ou citoyens lambda qui portent un intérêt à l’innovation publique. 

Nancy Ville Numérique est une association indépendante créée en 2009. Elle mobilise plusieurs entreprises de différentes tailles issues de divers secteurs d’activités réunies par l’exercice d’une activité sur le territoire métropolitain de Nancy. Ces entreprises se regroupent autour d’une vision commune : donner un élan d’initiatives pour permettre le rassemblement du meilleur de l’Homme et du Digital afin de contribuer à la construction de la société de demain. 

Affiche de la 4e édition du Libre sur la place
Affiche de la 4e édition du Libre sur la place.

Depuis maintenant quatre années, la ville de Nancy en partenariat avec la direction de Nancy Numérique, organise cet événement pour partager et échanger autour des logiciels libres. Cette année encore, des témoignages des administrations qui ont fait le pari du logiciel libre viennent agrémenter le programme de la journée. En effet, un des principaux objectifs du libre sur la place est de partager les expériences positives des administrations vis-à-vis de l’utilisation du libre. Au-delà de ça, la présentation de ces ressentis permet de créer un réseau, et même une communauté autour de l’utilisation des logiciels libres. 

Accessible à tous, le logiciel libre est sans conteste devenu une véritable alternative, appréciée pour la liberté de modification, de partage et d’utilisation qu’elle offre.

Pollution et sobriété numérique

Du 16 au 24 novembre se déroulera la Semaine Européenne de la Réduction des déchets. Nous sommes de plus en plus sensibilisés à la question de la protection de l’environnement, néanmoins une notion dont on a peu conscience reste singulière : celle de la pollution numérique. En effet, les déchets ne sont pas seulement matériels, le numérique aussi constitue une grande source de pollution. Cependant, il est plus que jamais présent dans notre société et son impact environnemental ne fait que se multiplier au fil des années.

Qu’est-ce que la pollution numérique ?

La pollution numérique correspond à la pollution générée par les nouvelles technologies soit par leur fabrication soit par leur utilisation, c’est une pollution invisible. Il est donc difficile de concevoir son empreinte environnementale.

À la base de la chaîne on retrouve les outils numériques tels que les ordinateurs, les smartphones, les tablettes, qui en plus d’être extrêmement énergivores nécessitent à la fabrication des matériaux rares (cobalt, gallium, lanthane, tantale …). Les processus d’extraction de ces matières non renouvelables sont très polluants et responsables de l’épuisement des ressources abiotiques (minerais, énergies fossiles…) et d’écosystèmes. Viennent ensuite les services associés à ces outils rendus possibles notamment grâce aux serveurs, aux réseaux d’accès au web qui sont eux aussi très gourmands en énergie. En réalité, ces derniers nécessitent des systèmes de refroidissement et d’alimentation électrique actifs 7 jours sur 7, 24H sur 24. Par ailleurs, le cloud[1] entraine une multitude d’échanges réseaux donc une multiplication des équipements. Stocker des données en abondance dans ce « nuage » est donc loin d’être un choix écoresponsable. De plus, l’empreinte carbone des nouvelles technologies ne cesse de croître en raison de la multiplication considérable du nombre d’objets connectés, et des nombreuses innovations, parfois minimes qui gagnent les marchés.

Données clés

Selon une étude de GreenPeace réalisée le 10 janvier 2019, si Internet était un pays, il serait l’un des cinq plus grands pollueurs puisqu’il représente à lui tout seul 7% de la consommation électrique mondiale.

L’étude « Empreinte environnementale du numérique mondiale » de Frédéric Bordage nous apprend que d’ici 2025 le numérique représentera près de 6% de l’empreinte de l’humanité (contre 2,5% en 2010). En effet, selon les estimations du fondateur de GreenIT, on pourrait compter 48 milliards d’objets connectés en 2025. Ci-dessous, on peut observer les trois émetteurs de gaz à effet de serre liés au numérique

À savoir que le simple fait d’envoyer un e-mail émet environ 10g de CO2 dans l’atmosphère et que quelques milliards sont envoyés et reçus en une heure dans le monde. En outre, toujours d’après ce même rapport de GreenIT, l’empreinte annuelle moyenne d’un internaute équivaut à 350kWh d’énergie, 200kg de gaz à effet de serre et 3000 litres d’eau. Ces chiffres alarmants nous mènent à repenser notre utilisation des outils numériques et à prendre des mesures.

Quelques solutions

Bien qu’une industrie numérique entièrement écoresponsable soit peu probable, il existe des solutions pour réduire son impact environnemental. C’est ce qu’englobe le concept de « sobriété numérique ».

Voici quelques suggestions que chacun peut appliquer dans son quotidien : modérer sa consommation streaming qui très gourmand en énergie, réduire le nombres d’écrans plats, limiter l’ouverture d’onglets, l’envoi de mails et supprimer régulièrement ces derniers… Il est aussi recommandé d’optimiser ses impressions avec une typographie peu gourmande en encre comme Garamond, d’activer le mode « éco » de son imprimante, de privilégier le chemin le plus court lors d’une recherche internet. De plus, on préfèrera l’achat de produits d’occasion ou reconditionnés en boycottant les offres d’équipements numériques à prix cassés. Selon l’ADEME, passer la durée de vie de 2 à 4 ans d’un ordinateur ou d’une tablette améliore de 50% son bilan environnemental.

Du côté des grands groupes, certains ont mis en place des moyens comme la collecte des Déchets d’Équipements Électriques et Électroniques (DEEE) à recycler, par exemple Ecologic, un service de gestion des DEEE financé par l’Etat. Par ailleurs, d’autres réutilisent la chaleur produite par les data centers, comme à Paris où une piscine est chauffée par un centre de données.

Des outils pour comprendre et réduire l’impact environnemental numérique

Des dispositifs sont à disposition de tous pour nous aider à être plus écoresponsables, comme Clickclean, mis en place par Greenpeace. Ce site indique la consommation d’énergie de plusieurs applications et les note de A à F selon leur utilisation d’énergies polluantes ou renouvelables. On y retrouve des géants du web tels que Facebook, Twitter, Spotify…

Source : Clickclean.org

De son côté, Cleanfox est un outil qui permet de se désabonner en un clic des newsletters qu’on ne lit pas en le connectant à sa boîte mail. Il se chargera d’identifier les messages concernés et de les supprimer.

Source : Cleanfox.io

EcoIndex est un site qui évalue à l’aide de plusieurs critères la performance, l’empreinte environnementale d’une page web. Il suffit de rentrer l’url de la page concernée dans l’espace dédié et l’analyse s’effectue en quelques secondes.

Source : GreenIT.fr

Certains moteurs de recherche s’inscrivent également dans une démarche écologique. Par exemple Lilo qui reverse une partie de ses revenus publicitaires à des projets écologiques, durables ou Ecosia qui fait don d’une part de ses bénéfices à des programmes de reforestation. D’autre part, on distingue les extensions de navigateur. Parmi eux, Carbonalyser, une extension de navigateur Firefox créé par The Shift Project. Il permet de calculer en temps réel sa consommation électrique et son émission de gaz à effet de serre selon notre propre navigation internet. Ce programme est aussi disponible sur smartphone sous le nom de « Mobile Carbonalyser ». On trouve aussi GreenIT-Analysis, disponible sur le Chrome web store. Cet outil permet aux développeurs d’évaluer l’empreinte, la performance environnementale et les bonnes pratiques d’une page web. Enfin, la société FairPhone a développé un smartphone durable issu du commerce équitable et fabriqué avec des matériaux responsables. Cet appareil Android se présence comme une alternative aux grandes marques de smartphones.

En attendant un Internet plus écologique, vous avez toutes les clés en main pour réduire votre impact carbone lié au numérique et ainsi faire un geste pour l’environnement ! Alors si même l’empreinte écologique de cet article est loin d’être neutre, il est temps de prendre conscience de la pollution digitale et d’agir.


[1] Espace de stockage de données à distance

Stratégie de communication en Terranga

Une multitude d’associations à but humanitaire foisonnent dans le monde, avec un but commun : récolter des dons afin de défendre leurs causes.

Au sein de l’IUT Charlemagne, le tableau d’affichage du bâtiment consacré aux métiers numériques en témoigne : cette semaine, une affiche y représente les ONG présentes à Nancy.

Ces associations comme « Médecin du monde » ou « La croix rouge » sont des associations qui rayonnent sur l’ensemble du territoire français, et qui disposent d’antennes locales. Ainsi, les travailleurs sociaux présents dans les communes de France profitent des campagnes de publicité nationales et ont également la capacité d’assurer une communication de proximité afin d’encourager l’adhésion de leur public cible.

Il n’en est pas de même pour toutes les associations, notamment pour de plus petites structures implantées dans des pays émergents, qui ont besoin de fonds mais ne peuvent compter uniquement sur l’aide des habitants de leur région, qui vivent souvent eux même dans une extrême précarité.

Il est alors impératif pour ces dernières de communiquer au-delà des frontières, avec la difficulté de gagner la confiance des futurs donateurs en l’absence de proximité géographique.

« L’empire des enfants », une association Dakaroise en quête de visibilité 

L’association « L’empire des enfants », fondée à Dakar par Anda Mbow en 2003, est confrontée plus qu’une autre à cette problématique, car elle défend une cause très locale peu connue en Europe.

Cette fondation, créée il y a 20 ans, a pour but de recueillir des enfants livrés à la rue qui sont en grande majorité des « talibés », des enfants envoyés par leurs familles démunies dans des écoles coraniques appelées « daaras » avec un professeur coranique qui s’avère mal intentionné en contraignant ces petits garçons à la mendicité. Les enfants sont le plus souvent trouvés dans la rue et pris en charge par une équipe d’éducateurs, soignés, nourris, logés et écoutés.

La première année est consacrée à une initiation à l’alphabétisation des enfants, à une remise en confiance en la relation avec l’adulte en vue d’une scolarisation l’année suivante et d’une réintégration dans leur famille dès que possible. Lorsque ce retour auprès de leurs proches n’est pas possible, ils continuent à vivre au centre d’accueil de l’association et sont scolarisés dans des écoles privées grâce à un système de parrainage.

Afin de défendre cette cause, il était manifestement indispensable de sensibiliser des donateurs au-delà du continent africain. Alors comment Madame Mbow a-t-elle réussi à faire connaître « l’empire des enfants » à l’échelle Internationale ? Comment est-elle parvenue à sensibiliser les citoyens du monde pour obtenir les dons nécessaires, et gagner leur confiance ?


Familiarisation avec les outils de communication modernes

Si l’association dispose d’un site internet clair et complet bien que perfectible, ce dernier ne jouit pas d’un référencement Google suffisant pour attirer les donateurs.

Dans la majorité des cas, ces derniers ne cherchent pas spontanément une association caritative via leur navigateur internet, mais leur geste est souvent guidé par une campagne d’information qui les aura convaincus en amont. Ceci est d’autant plus vrai pour les associations non européennes sachant que les dons qui leurs sont offerts ne sont pas déductibles des impôts sur le revenu français, contrairement aux autres …

En outre, les personnes désireuses d’aider les fondations humanitaires sont souvent frileuses de le faire dans des établissements éloignés ou moins connus que des institutions comme la Croix rouge, non confiante de la manière sont sera utilisé leur argent par un ONG plus confidentielle.

Ainsi, dans le but de promouvoir sa mission, l’Empire des enfants n’a pas manqué l’explosion des réseaux sociaux et la fondation est présente sur Facebook, Twitter et Instagram.

Elle a également profité de l’émergence des campagnes de dons sur ces réseaux et la démocratisation du crowdfunding.

Nous sommes allés à sa rencontre à Dakar le 29 octobre dernier et nous avons interrogé Alassane Winch Diagnesur, un collaborateur d’Anda qui est chargé, entre autres missions, de la communication de l’association. Ce dernier effectue un réel travail de « community manager » sans même en avoir conscience.

Grâce à Alassane, la page Facebook de l’Empire des enfants est désormais alimentée d’articles concernant l’association, sur son actualité, des évènements marquants dans la vie des enfants, ponctués de photos et vidéos de qualité. En mai dernier, une campagne de crowdfunding a permis l’acquisition de matériel audiovisuel. Cet équipement a également permis la production de vidéo visibles sur Youtube.


Une communication publique efficace au service du droit à la dignité des enfants sénégalais.

La force de communication de cette ONG qui la singularise des autres associations environnantes réside dans la personnalité même de sa fondatrice. Anda Mbow est devenue une personnalité médiatique et une ambassadrice de sa cause très médiatisée qui a su apprivoiser les journalistes de la presse écrite, et multiplie les interventions à la radio et à la télévision. Cette notoriété lui a permis de trouver des partenaires économiques et politiques puissants tels que LA POSTE, Air France ou l’Union Européenne. Mme MBOW a par ailleurs été élevé au grade de Chevalier de la Légion d’Honneur Française le 13 juillet 2019.

Au gré de nos échanges sur place avec Anda et Allassane, ces derniers nous confirment que la stratégie de communication de l’organisation repose sur l´image de Mme Mbow, personnage charismatique, qui maîtrise l’art des « relations publiques ». Elle a également su convaincre de nombreux artistes de s’associer à son projet caritatif, qui constituent d’importants influenceurs, participant eux-mêmes à encourager différents acteurs économiques privés à investir des fonds dans sa cause humanitaire. L’association a également signé des conventions de partenariat avec des universités américaines et européennes afin d’accueillir des stagiaires de la profession sociale, ce qui contribue à développer le rayonnement de la fondation.

Mme Mbow nous a confié qu’elle ignorait les rouages de la communication médiatique sénégalaise lorsqu’elle a créé son association alors qu’elle était de retour dans son pays natal, après trente ans de vie en France : son discours de militante était incisif envers ses co-citoyens et le gouvernement qui niaient l’instrumentalisation des talibés par des marabouts peu scrupuleux. Il n’a pas été facile de dénoncer cette dérive dans un pays composé à 97 % de musulmans, qui cohabitent pourtant en toute sérénité avec une minorité chrétienne et qui ne semble pas souffrir du radicalisme islamiste présent dans beaucoup d’autres pays du continent.

Lors de l’inauguration des murs de l’association, le président de la RTF, première chaîne de télévision nationale, qui est un proche d’Anda, lui a fait la faveur de couvrir l’événement, puis lui a expliqué la nécessité d’une communication informative, éducative, prescriptive en évitant le piège de l’injonction.

Ainsi Mme Mbow, a continué à dénoncer ces abus, en ajustant le ton, en choisissant avec justesse ses médias, ses partenaires, ses ambassadeurs, et ses collaborateurs.

L’association peut aujourd’hui accueillir 60 enfants et projette d’ouvrir une unité pour les jeunes filles isolées. Un hôtel de « tourisme social » va bientôt ouvrir ses portes à Popengenine afin d’assurer une source de revenus stables à l’organisation. En effet, le littoral dakarois est une région du Sénégal très fréquentée, et Madame Mbow souhaite associé la « Terranga », qui signifie « terre d’accueil » au Sénégal à son projet humanitaire.

L’utilisation des réseaux sociaux dans la récolte de don, bonne ou mauvaise idée ?

Du 20 au 23 septembre dernier, 54 streamers1 étaient rassemblés à Montpellier afin de récolter des dons pour l’Institut Pasteur lors du Z Event. Comment ? Chaque streamer a présenté un live sur la plateforme Twitch pendant plus de 50H00 en jouant à différents jeux tels que League Of Legends, World Of Warcraft, Fortnite etc. Résultat ? 3,5 millions d’euros de dons ont été recueillis. Une question se pose : pourquoi un tel succès ?

Les campagnes publicitaires classiques à l’usage des plateformes digitales

Source : Les Restos du Coeur, données de la campagne 2017-2018.

On connaît tous ces grandes associations françaises : Les Restos du Coeur, le Téléthon, la Fondation Abbé Pierre etc.  Ces dernières organisent chaque année des campagnes de donations sur des périodes données. Leur communication passe par l’achat d’espaces publicitaires avec les moyens médias, dits “traditionnels” : l’affichage, la télévision, la radio ou encore la presse écrite. De plus, des numéros de téléphone ou des agences physiques sont instaurés afin de récolter des dons. Les Restos du Coeur récoltent des dons alimentaires, pécuniers, de jouets, de vêtements etc. dans des agences présentes dans toutes la France.

Depuis quelques années, la communication et les moyens de récolte des dons se démocratisent par le biais des réseaux sociaux. L’emplois des campagnes de  crowdfunding2 ou des dons sur Facebook sont d‘excellents exemples d’outils participant aux campagnes de dons. 

Une histoire de cible

En 2018, l’influenceur français Jérôme Jarre créé la Love Army, accompagnée d’une campagne de crowdfunding, en vue de récolter des fonds pour les Rohingyas, chassés de Birmanie. 2 milliards de dons ont été récoltés en quelques jours. Tout comme le Z Event, ces mouvements mettent en avant des influenceurs connus de tous. Les grandes associations françaises comme les Restos du Coeur mettent elles aussi en avant des personnalités publiques notamment lors du concert des Enfoirés, rendez-vous annuels pour le public français. 

Cependant, la cible n’est pas la même. Il est donc normal qu’il y ait des différences de dons ou même des records dépassés. En effet, pour le Z Event, la cible correspondait aux personnes passionnées par le monde du gaming. L’effet de groupe des donneurs durant le live

Des moyens de financement controversés ?

Ces outils de récoltes de dons posent problème. Par exemple, Facebook propose des rassembler des dons pour des anniversaires depuis 2017. Lorsque que la date approche, Facebook nous propose de faire un don pour une association à but non lucratif répertoriée dans leur liste. Tout est fait pour que nous soyons rassuré : Facebook assure, dans les pages d’aide, le transfert pécunier est direct avec l’association. Cependant un doute lié à la confiance avec les utilisateurs subsiste quant à ce transfert.

Par ailleurs, cette plateforme pose aussi problème dans le choix des associations. Facebook assure que le choix des associations est étudié au cas par cas dans le but de ne pas avoir à faire face à des problèmes tels que Paypal a pu connaître. En effet, en 2017, un groupuscule d’extrême droite a lancé une campagne de don qui avait pour but de contrarier le travail des ONG en méditerranée.

Promouvoir une cause et inciter aux dons est le but des associations caritatives. Cette démarche altruiste est une démarche parfaite pour les réseaux sociaux, qui propulsent les campagnes de donations. Mais on peut émettre des doutes sur la confiance que l’on doit avoir en eux. Finalement l’utilisation caritative de ces plateformes nous poussent à nous poser une autre question : à qui cela profite-t-il le plus ?

Qwant est un moteur de recherche français, il a été créé en 2013.
Il se différencie de Google en proposant une interface avec une barre de recherche latérale incluant les options de tri d’une recherche (web, photos, vidéos, etc). Les résultats sont présentés sur 3 colonnes : web, actualités et social.
Pour proposer ses résultats, Qwant croise les résultats de plusieurs moteurs et réseaux sociaux.
Ce moteur de recherche insiste sur le respect de la vie privée de ses utilisateurs, en ne traçant pas leurs recherches internet.

De plus, le moteur de recherche dispose de plusieurs soutiens : la Banque européenne d’investissement, mais aussi de la fondation Mozilla qui annonce que le moteur sera intégré par défaut à la prochaine version du navigateur Firefox.
Afin de poursuivre son engagement éthique, Qwant a annoncé une collaboration avec AkuoCoop, premier producteur indépendant français d’énergie renouvelable.
À savoir qu’il existe également une déclinaison du moteur de recherche, nommée Qwant Junior, à destination des plus jeunes.

Lilo a été créé en 2015, grâce à un financement participatif. C’est également un méta-moteur de recherche, il se base notamment sur Bing pour récupérer ses informations.
Ce moteur permet à ses utilisateurs de cumuler des « gouttes d’eau » pour chaque recherche qu’ils réalisent. Ces « gouttes » sont une monnaie virtuelle. L’usager choisit le projet auquel il souhaite contribuer et plus de 50 % des revenus générés par la publicité lui reviennent. Cette cagnotte donne la possibilité à l’internaute de soutenir un projet social ou environnemental.
Ce moteur de recherche connaît un certain succès, car l’utilisateur peut choisir lui-même l’organisme auquel il donne, lui donnant ainsi un réel sentiment d’implication.

De plus, Lilo affirme ne pas tracer ses utilisateurs et ne pas récolter d’informations sur leurs recherches.


Alors quel moteur de recherche choisir ?

Chaque moteur de recherche possède des particularités différentes. Alors que certains se concentrent sur le respect de la vie privée pour contrebalancer le géant de l’industrie Google, d’autres privilégient de centrer leurs efforts sur des notions d’environnement. Au final, chacun y trouvera son compte en fonction de ses attentes.

Lexique :
*Adresse IP : Une adresse IP est un numéro unique permettant à un ordinateur de communiquer dans un réseau.
*Méta-moteur de recherche : Un méta-moteur est un logiciel qui puise ses informations à travers plusieurs moteurs de recherche.

Les qualités des pages web, selon Google

Les qualités des pages web, selon Google

Le moteur de recherche « Google », créé par l’entreprise Google (lancée le 27 septembre 1998), est le moteur de recherche le plus utilisé au monde. Il est le premier moteur de recherche utilisé en France avec plus de 93% des recherches effectuées sur le moteur américain  (source : Wikipédia). Il est donc fondamental de bien réfléchir aux conditions d’un bon référencement sur Google. Voici quelques conseils afin de bien référencer votre site sur le moteur et ainsi avoir plus de visibilité !

Le fonctionnement de Google  

Pour ne pas être pénalisé face au référencement, il est important de relire régulièrement les critères de qualité de Google. En effet, Google corrige souvent ses algorithmes ; les « quality evaluators » de l’entreprise ont ainsi un guide leur permettant de réaliser les algorithmes qui noteront en deux notes un site internet : une note de qualité et une d’utilité. Ce guide est disponible sur Internet, malheureusement seulement en anglais pour le moment.

Depuis sa création, il y a eu plusieurs mises à jour Google qui changent la manière de gérer le référencement et ainsi qui changent les critères de qualité. À chacune des différentes mises à jour, Google répète « construisez du contenu de qualité ». Mais qu’est-ce que la qualité, selon Google ?

Les attentes de contenu du moteur de recherche 

Les « meilleurs résultats » selon Google n’ont rien à voir avec l’esthétisme du site internet, la question est : est-ce que le site comporte des résultats ? Le moteur de recherche cherche avant tout à fournir un service de qualité à ses utilisateurs en leur donnant les résultats les plus pertinents en fonction de leurs recherches. Il faut donc créer un contenu consistant, qui apporte des réponses supplémentaires comparé aux autres sites (par exemple apporter des précisions, mettre des informations en relations, etc.).

De plus, ces informations doivent être régulièrement mises à jour ; les pages sur les sites web qui sont obsolètes seront moins mis en avant lors du référencement Google. En plus du contenu textuel du site web, le titre, l’URL, les liens internes doivent être clairs.

Les algorithmes de qualité Google, des outils pour un bon référencement

 Les algorithmes de qualité créés par Google visent à expliquer aux « quality evaluators » comment positionner les pages dans les résultats de recherche du moteur. Ce sont en d’autres termes les critères de « qualité » qui serviront pour la notation des sites web, et ainsi, pour leurs référencements.

Le travail de référencement est élaboré en amont, il peut être naturel ou payant, on parle de :

SEO (Search Engine Optimization) : dispositif qui fonctionne avec des mots-clés, référencement naturel et gratuit ;

SEA (Search Engine Adverstising) : service payant, qui fonctionne au travers de l’achat de mots-clés et de publicités.

Le référencement naturel sera idéal si les sites web respectent au plus près les algorithmes conçus par Google. Ces algorithmes évoluent en permanence, il est important de toujours bien veiller à suivre les modifications, et les nouveaux créés pour effectuer les changements nécessaires. Il existe aujourd’hui une multitude d’algorithmes conçus par le moteur de recherche, mais il reste des algorithmes « majeurs ».

  • L’algorithme Google Panda :

Publié en août 2011, il dévalue et déclasse les sites dit de « mauvaise qualité », au contenu de faible valeur ajoutée :  notamment les sites qui surchargent leurs pages de publicités et qui empêchent le contenu d’être vu, les contenus cachés (non visibles par les internautes mais visibles par Google), les contenus dupliqués, etc.

Google porte désormais une grande importance à la qualité du contenu. La dernière mise à jour de cet algorithme date de 2015.

  • Google Pingouin :

Algorithme lancé en avril 2012, Pingouin a été conçu pour pénaliser les sites qui ont abusé de techniques de spam. Par exemple au niveau du texte, répéter volontairement à plusieurs reprises les mots-clés peut être sanctionné ; de même pour les titres comprenant trop de mots-clés, etc. Cet algorithme est régulièrement mis à jour, en continu.

  • Hummingbird (Colibri) :

Officialisé en septembre 2013, il s’intéresse aux requêtes composées de plusieurs mots-clés mais il change le mécanisme de recherche Google. En effet, il essaie de deviner la définition qui se cache derrière chaque requête et les traduits en contenus indexés (afin de donner les bons résultats, notamment avec les recherches orales, de plus en plus courantes avec la place du mobile et des assistants vocaux). Cet algorithme a été conçu également pour fonctionner avec les synonymes pour obtenir des résultats en commun.

Pour le site web, Google met en avant également avec cet algorithme l’importance du contenu de « qualité », que l’on peut faire correspondre aux requêtes orales et il ne faut pas hésiter à utiliser un champ lexical élargi et varié (utilisation de synonymes).

  • RankBrain :

Lié à Hummingbird et officialisé en 2013 également, cet algorithme « intelligent » doté de systèmes d’apprentissage automatique (deep learning) permet de mieux comprendre l’intention de la recherche des internautes. Mais les pages web ne peuvent pas être travaillées pour optimiser les résultats de cet algorithme.

À tous ceux-ci s’additionnent d’autres critères qui entrent en compte dans le référencement SEO, tel que la vitesse de chargement de la page et de navigation (depuis 2018 également sur le mobile) ; la e-réputation (nombre de recherches sur la page web, informations gênantes toujours visibles sur l’entreprise…) ; la priorité donnée aux pages qui utilisent le protocole HTTPS, actualité et mise à jour du contenu, compatibilité mobile, etc.

Ainsi,

Pour obtenir un bon référencement naturel sur le moteur de recherche : ne comptez pas sur vos propres critères de qualité, mais sur ceux de Google. Il faut s‘appuyer sur les différents algorithmes existants conçus par Google et dont les « quality evaluators » se servent pour noter les sites et les classer.

Il faut bien réfléchir à son contenu : qu’il soit bien lisible, avec des textes complets et surtout pas de parasites de type spams ou une surcharge de publicités, et régulièrement effectuer une veille sur ces algorithmes, bien se renseigner. Google met en effet régulièrement à jour ces algorithmes et en conçoit des nouveaux : il faut se tenir informé et adapter son site, sans oublier de le mettre régulièrement à jour.

Mais il ne faut oublier que le site web est à destination des internautes, il faut répondre à la requête. Il est bien de se classer sur le moteur de recherche Google mais il ne faut oublier que c’est les internautes qui jugeront de la qualité de la page : est-ce que la page web répond à leurs questions ? Sans oublier qu’il n’existe pas que Google comme moteur de recherche, il faut mettre les chances de son côté sur tous les moteurs.