Google optimise YouTube pour Chrome et le ralentit chez la concurrence

Google optimise YouTube pour Chrome et le ralentit chez la concurrence

Il y a approximativement un an, Google a offert un nouveau design à sa célèbre plateforme de streaming, YouTube.
Comme toujours, à mesure que cet habillage a été déployé, certains utilisateurs ont salué le rafraîchissement, tandis que d’autres n’ont pas adhéré au changement. Cette semaine, sur Twitter, un technical program manager de Mozilla, Chris Peterson, a fait part de ses constats.
Au-delà de toute appréciation personnelle, il observe des temps de chargement complet nettement plus longs sur le navigateur maison, Firefox, que sur celui de Google, à savoir Chrome. Ses tests avec Edge ont livré le même résultat : le navigateur de Microsoft charge bien plus lentement les pages issues de YouTube que Chrome ne peut le faire.
Le Reste de l’article ici

read more

Google veut améliorer le développement de WordPress - Normandie Mkt

Google veut améliorer le développement de WordPress

Le partenariat de Google avec WordPress vise à améliorer les performances du CMS, spécialement pour l’expérience mobile.
Il est vrai que depuis peu, Google s’est associé au CMS WordPress, le CMS le plus utilisé au monde, avec presque un tiers du contenu Web publié via la plate-forme.

Vitesse, mobile-first et WordPress

L’objectif premier de Google, et ce depuis plus de 8 ans, reste la vitesse d’affichage des websites sur son annuaire. Pour cela, Google met à disposition des utilisateurs de nombreux outils pour vérifier et améliorer l’architecture des sites comme : Google Webmaster tools ou encore Google Page Insight.
Finalement, l’index Mobile-first a commencé à être déployé depuis Janvier 2018, ce qui signifie que Google commence à indexer et utiliser la version mobile d’un site Web pour le classement dans la SERPs.
L’accent mis sur l’amélioration des versions mobiles vient du fait que plus de la moitié des recherches sont désormais effectuées sur des appareils mobiles. Les sites lents et peu performants entraînent une mauvaise expérience utilisateur et ont un impact négatif sur l’engagement du site, ainsi que sur les conversions.
Dans le but d’aider les propriétaires de sites à améliorer le temps de chargement des pages pour les visiteurs mobiles, Google a lancé le projet AMP en 2015. Depuis le début du projet, Google a mis en place une stratégie agressive visant à faire adopter le format AMP à la communauté WordPress, en créant notamment des plugins plus ou moins performant …
Malgré tous les efforts de Google, l’adoption de ce format met beaucoup de temps et on estime que moins de 1% de tous les sites Web utilisent le langage AMP.

Google – WordPress : un partenariat logique et stratégique

En 2018, WordPress représente presque 30% des sites webs mondiaux. Il est donc parfaitement logique pour Google de vouloir améliorer d’avantage le CMS pour pouvoir atteindre ses objectifs de rapidité et performance.
Google a participé en décembre dernier à WordCamp US, le plus grand événements annuelle dédié à WordPress. Alberto Medina, Developer Advocate dans l’équipe Content Ecosystems de Google a écrit :

« Notre objectif était de dialoguer avec la communauté WordPress et d’entamer une discussion sur les performances du CMS WordPress. »
Lors de cet événement, Google a partagé des données montrant le principal problème du CMS : ses mauvaises performances en terme de vitesse sur les chargements de pages.

Pour tous ceux qui ont développé ou travaillé sur des sites Web basés sur WordPress, ce n’est pas un secret que la plate-forme Open Source a connu des difficultés au fil des années avec des problèmes de code, de sécurité et de performance.

Google + WordPress = ?

Dans un deuxième article posté sur son blog personnel, Medina a écrit qu’en plus d’améliorer les performances, la collaboration vise à adapter plus rapidement l’écosystème de la plate-forme aux normes d’expérience Web actuelles, via des technologies telles que la Progressive Web Apps (PWA).
Le message de Google est clair : Tous les utilisateur de WordPress devrait utiliser un plugin pour implanter le format AMP.
Mais on pourrait supposer que l’objectif à long terme de Google est d’inclure l’AMP (ou une fonctionnalité de type AMP) dans le noyau WordPress.
Commentaire de notre consultant SEO Pierre Pichoff, créateur de website sur WordPress : WordPress est un CMS polyvalent et relativement simple à utiliser. Il compte une très grande communauté, ainsi qu’un nombre incalculable de plugins qui vous aidera à améliorer votre site.
Cependant, WordPress a également des inconvénients. Il souffre de nombreuses failles en terme de sécurité et performance. Pour pouvoir utiliser WordPress correctement, il faut très souvent passer par des programmes tiers (Cdn, analytics, ..), ce qui n’est pas sans danger.
De plus, il est fortement déconseillé d’utiliser WordPress pour un autre usage que pour un blog personnel ou un site vitrine. Il vous faudra utiliser d’autre Cms pour faire un site e-commerce ou une application …
Il est parfaitement normal que Google ait envie d’aider WordPress, mais pourquoi vouloir à tout prix le faire en imposant son format AMP ?

read more

Pourquoi réaliser Audit SEO site web

Pourquoi réaliser un Audit SEO de votre site web ?

Vous êtes-vous déjà demandé ce qui manquait à votre site pour qu’il se classe mieux dans le moteur de recherche de Google ? Ou s’il serait possible de se placer sur d’autres mots clés pour augmenter vos ventes ?
Vous en avez peut être assez de dépenser votre budget marketing dans des campagnes SEA du type Adwords.
Si vous vous poser l’une de ses questions, il est temps de réaliser : un Audit SEO approfondi.
Sans entrer dans les détails d’un audit SEO, regardons tout d’abord les deux signes infaillibles qui vous diront que votre site a besoin d’un Audit.

Signe n°1 : Vos classements sur Google se sont subitement effondrés

Certains des problèmes techniques les plus basiques de votre site Web peuvent vous avoir échappés, et ils peuvent vous coûter très cher en terme de classement SEO.
A titre d’exemple, j’ai examiné un site Web qui avait perdu plus de 50 % de ses visites sur un mot clé en 1 mois. Après avoir étudier le problème, j’ai vu qu’un membre de l’équipe avait renommé le dossier des images de l’URL en question en utilisant deux mots et introduisant par erreur un espace dans le nouveau URL. En examinant la page de L’URL, j’ai pu voir (tout comme Google) qu’il y avait une augmentation du nombre d’erreur 404, ce qui a suffit à tirer l’Alarme du moteur de recherche.
Passer de la première page à la seconde sur les listes de Google peut entraîner la perte de milliers de visites par semaine.

Signe n°2 : Vous avez lancé un nouveau site web, et vous voulez être sûr qu’il a été construit correctement

Imaginez un instant que vous avez misé gros sur sur la refonte de votre site Web. Le design est magnifique et toutes les nouveautés fonctionnent très bien.
Un doute subsiste cependant, savez vous à quel point le concepteur était compétent en matière de SEO ?
Au fil du temps, les mises à jour des plugins, le nouveau contenu ainsi que le travaille de divers professionnels peuvent avoir aggraver les problèmes de codage.
Une équipe expérimentée peut vous aider à éliminer rapidement les problèmes et vous aider à trouver les solutions pour augmenter la rapidité et le Seo interne de votre site Web.

Que peut-on découvrir à partir d’un audit SEO?

L’audit SEO est un examen approfondi et intensif du code sous-jacent sur votre site Web.
C’est une façon de voir votre site à travers les yeux de Google, et d’identifier les problèmes qui pourraient vous empêcher de le classer dans les moteurs de recherche.
Voici quelques exemples rapides sur tous les types de problèmes que nous pourrions rencontrer lors d’un audit d’optimisation de recherche:

  • Liens internes ou externes qui n’ont pas de destination valide
  • Liens qui ne peuvent pas être explorés par les moteurs de recherche (nofollow)
  • Ressources de page redirigeant depuis votre site Web
  • Plusieurs variantes de fichiers en cours d’utilisation sur la même page
  • Les différentes formes de contenu en double
  • Caractères spéciaux qui ne peuvent pas être lus ou indexés correctement
  • Fichiers cachés et problèmes d’accès manquants

Ce n’est en aucun cas une liste exhaustive.
Parce que ces types d’erreurs vivent « sous la surface » de votre site Web, vous n’êtes pas susceptible de les détecter. En fait, votre talentueux concepteur de sites Web ou votre consultant en optimisation de moteurs de recherche pourraient ne pas savoir les rechercher.

Prêt à améliorer le potentiel de votre site Web?

Nous savons à quel point l’optimisation dans les moteurs de recherche est importante pour le succès de votre entreprise. Pour cela, nous aimerions partager trois de nos outils favoris pour réaliser des audits techniques:
Screaming Frog: Logiciel gratuit (jusqu’à 500 URL). Application de bureau Populaire parmi les consultants SEO les plus expérimentés.
SEOAudits: Rapport détaillé de votre SEO interne avec des suggestions d’améliorations.
SEMRush: Service online qui vous aidera à trouver les mots clés et visualiser vos backlinks.

read more

Twitter robots volent identités faire buzz

Twitter : Des robots volent des identités pour faire du buzz

Il a été prouvé que certaines célébrités et politiciens achètent de faux comptes sur les médiaux sociaux comme Twitter ou facebook afin de paraître plus populaires.
Avoir un nombre élevé d’abonnés et de retweets est devenu monnaie courante dans le monde des médias sociaux. Cela aide un grand nombre de personnes à obtenir des emplois ou des contrats et cela stimule les utilisateurs qui sont plus susceptibles de partager et commenter du contenu “buzz”.
Il est également certain que les algorithmes de la plate-forme de médias sociaux utilisent des donnés pour déterminer s’il faut promouvoir le message pour créer un buzz.

Que faut-il pour être “célèbre sur Twitter?”

En octobre, NBC a travaillé avec un groupe de chercheurs pour acheter des bots Twitter auprès de Devumi, une société de marketing de médias sociaux. Jo Ling Kent de NBC News a rapporté que pour seulement 25 $, n’importe qui peut avoir son message retweeter des milliers de fois par une petite armée de profils fakes et bots.

Dimanche, le New York Times a rapporté qu’il avait enquêté sur la même société et avait découvert que Devumi avait un stock de plus de 3,5 millions de comptes automatisés qu’elle mettait à disposition pour ses clients.

Parmi ces clients figuraient un chef de renom, l’acteur John Leguizamo et même Martha Lane Fox, membre du conseil d’administration de Twitter …
Le plus alarmant est qu’au moins 55 000 faux comptes ont copié des photos, des noms ainsi que des lieux d’utilisateurs légitimes, ne faisant que de légères modifications. Par exemple, changez un «i» en un «l» dans le nom du profil, une sorte de «vol d’identité de médias sociaux», a rapporté le Times.
Au total, l’entreprise a artificiellement augmenté les comptes de ses clients de plus de 200 millions de followers, selon l’enquête du Times.

Devumi violent la politique de Tweeter

Twitter a déclaré qu’il repère et stop plus de 6,4 millions de robots par semaine.

Dans des commentaires ultérieurs, le médial social a tweeté: “Les tactiques utilisées par Devumi sur notre plate-forme … violent notre politique et nous sont inacceptables, nous travaillons pour les arrêter”

Les experts disent qu’en ne mettant pas en place un système anti-SPAM lorsque de nouveaux utilisateurs s’inscrivent, la plateforme de médias social ne fait pas son maximum pour arrêter la « botification ».
Le procureur général Schneiderman a annoncé dimanche l’ouverture d’ une enquête sur Devumi.

“L’usurpation d’identité est un acte illégal en vertu de la loi de New York”, a t-il tweeté. “Internet devrait être l’un des meilleurs outils lutant pour la démocratie – mais il est de plus en plus transformé en un terrain de jeu opaque et payant.”

Et Dangereux …

Pierre Pichoff, consultant SEO de Normandie Mkt commente : “Je déconseille fortement d’acheter des likes, views, followers, retweet, pour vous mêmes ou votre entreprise. Cela pourrait grandement nuire à votre e-réputation.
Imaginions que vous publiez un article sur facebook et achetiez 1 000 likes. Cette article n’aura que des likes sans aucun partage ni commentaire. Pensez vous que cela soit un bon signal de confiance que vous envoyiez à facebook, Google ou à vos inscrits ?
Il ne faut pas jouer avec de tels algorithmes, tôt ou tard, ils repéreront ses combines et vous attribueront d’une manière ou autre un indice de confiance très bas, ce qui pourrait avoir les mêmes conséquences qu’une pénalité de Google …”

read more

Les tendances SEO de 2018 Fakes news recherche vocale AI et Mobile-first - Normandie Mkt

Les tendances SEO de 2018 : Fakes news, recherche vocale, AI et Mobile-first

Fake News : Préparez-vous aux mises à jour de Google

En 2010, Google était pointé du doigt car il relayait trop de nombreux sites de mauvaise qualité ou spam dans ses résultats de recherche. Cette presse négative fut si forte que Google avait du émettre un communiqué sur le sujet:
« Nous avons prix connaissance de vos commentaires : vous demandez des actions de notre part concernant les sites spammé ou de mauvaise qualité. »
C’est donc en février 2011 avec la mise à jour de Google Panda que Google a décider de commencer sa campagne contre le contenus de type spam et de qualité médiocre.
Pourquoi est-ce que je vous parle de cela aujourd’hui?
Parce que Google se retrouve une nouvelle fois au centre des critiques. En effet les médias ont reproché à Google d’avoir aider à promouvoir les fake news depuis un an et demi.
Inutile de dire que ces accusations portent atteinte à l’image de Google. Bien que le problème de fake news soit très complexe, c’est une question que Google se doit de résoudre.
Google a déjà pris des mesures pour contrer ce problème, notamment en bannissant les éditeurs qui faisaient la promotion de fake news, en testant de nouvelles méthodes pour signaler des articles offensants ou encore en ajustant son algorithme pour dévaloriser des informations non vérifiées.
Bien sûr, la question des résultats de recherche fiables est la grande priorité de Google depuis des années. En 2015, des chercheurs de Google ont publié un article sur Knowledge-Based Trust (KBT), un moyen d’évaluer la qualité des pages Web en fonction de leur exactitude factuelle plutôt que du nombre de liens entrants.
Si le KBT est implanté, le système de confiance fondée sur les connaissances finira par rétrograder les sites qui publient à plusieurs reprises des fakes news.

La recherche vocale et les Featured snippets vont se développer ensemble

Une requête de recherche mobile sur cinq provient actuellement de la recherche vocale, un chiffre susceptible d’augmenter à mesure que les appareils compatibles avec Google Assistant, tels que Google Home, gagnent en popularité. Et au fur et à mesure que la recherche vocale se développe, nous pouvons nous attendre à voir une augmentation des featured snippets, à partir desquels Google pioche souvent ses résultats de recherche vocale.
En effet, il existe déjà des preuves que cette croissance a lieu.
Une étude publiée par Stone Temple Consulting l’année dernière a confirmé que les featured snippets sont en hausse, apparaissant dans environ 30% de nos recherches.

L’intelligence artificielle (AI) alimentera de nombreux autres aspects de la recherche

Plus de deux ans se sont écoulés depuis l’introduction à RankBrain, le système IA d’apprentissage automatique de Google, qui permet de traiter les résultats de recherche. Depuis son introduction, il est passé de la gestion de 15 % des requêtes à sa totalité (100%).
Plus intéressant encore, Google a maintenant construit une AI qui … améliore son AI, et le fait mieux que les humains.
Malheureusement, l’AI rencontre des problèmes. Quand les AI ont trouvé une solution «assez bonne», ils se contentent cette solution et sont incapables de trouver une meilleure solution. Ils ont aussi tendance à confondre corrélation et causalité.
Et comme les développeurs ne programment que l’algorithme d’apprentissage automatique, ils ne comprennent pas eux-mêmes comment fonctionne l’algorithme final et, par conséquent, ont encore plus de difficulté à prédire comment il va se comporter.
Alors que Google continue à adopter l’IA et à en intégrer davantage dans ses algorithmes de recherche, nous pouvons nous attendre à ce que les résultats de recherche commencent à se comporter de manière moins prévisible. Ce ne sera pas toujours une bonne chose, mais c’est une chose pour laquelle nous devrions nous préparer.
L’IA ne change pas beaucoup nos stratégies de référencement à long terme. L’optimisation pour l’IA est essentiellement la même que l’optimisation pour les humains, puisque l’objectif d’un algorithme d’apprentissage automatique est de faire des prédictions similaires à celles des humains.

Mobile-first indexation

Cela fait près de trois ans que Google a annoncé que les recherches sur mobile avaient finalement dépassé les recherches sur son moteur de recherche. L’année dernière, BrightEdge a découvert que 57% du trafic provenait de terminaux mobiles.
Google réagit à ce changement de comportement des utilisateurs grâce à l’indexation mobile-first, ce qui signifie que Google va créer et classer ses listes de recherche en fonction de la version mobile du contenu. On peut s’attendre à ce que l’indice mobile-first soit lancé cette année.

Soyez prêt pour cette année 2018

Google a parcouru un long chemin depuis sa première apparition à la fin des années 1990. La prédominance de l’IA, le climat politique, les efforts et les mises en garde contre les messages d’invités manipulateurs et les publicités distrayantes indiquent que le changement est imminent.
Concentrez-vous sur les stratégies de référencement à long terme qui vous permettront de rester compétitif dans l’année à venir.

read more