Commercial :
06 44 60 06 78

Support :
09 77 55 55 57

Vérifiez l'état de nos services Connectez votre site SeoToaster Connectez votre site WordPress
SeoSamba Blog

Contenu généré par l'IA ou par un humain : qui obtient un meilleur classement dans Google ?

Juill 24, 2023

teaser65

Publié avec la permission de l'auteur: Olivier Sissons de https://www.rebootonline.com/  - Nos remerciements de https://www.seosamba.com 

ChatGPT, le chatbot créé par OpenAI après plus d'une décennie de recherche et d'avancées technologiques dans les domaines de l'apprentissage automatique et de l'intelligence artificielle, lancé le 30 novembre 2022 et pris d'assaut le monde.


Il n'a pas fallu longtemps aux référenceurs pour commencer à réfléchir à des moyens d'intégrer une nouvelle technologie puissante d'IA dans leurs campagnes sur site et hors site.


Avec tant de Sociétés de référencement se précipitant pour utiliser l'IA dans leurs campagnes de contenu sur site, et sans aucun test robuste sur ses performances par rapport aux approches et stratégies alternatives, il n'est pas surprenant que nous ayons vu d'innombrables études de cas proclamer à la fois l'impact SEO positif et négatif généré par l'IA le contenu a eu :

ChatGPT

Montré ci-dessus est une étude de cas par Glenn Gabe soulignant l'impact négatif du contenu de l'IA et un de Nathan Gotch soulignant l'impact positif.

Le référencement est nuancé, et la façon dont vous utilisez l'IA sera finalement le facteur décisif pour savoir si cela aidera ou nuira à vos efforts de référencement. Cependant, la question demeure, est-ce que Google classerait le contenu généré par l'IA mieux ou pire que le contenu créé par un humain ?


Nous avons passé les 3 derniers mois à mettre en place et à exécuter une expérience de référencement contrôlée pour tester si, toutes choses égales par ailleurs sur site et hors site, il existe des différences de classement entre les deux types de contenu.


Ci-dessous, nous examinerons notre hypothèse, la méthodologie utilisée pour mener cette expérience et les résultats.

HYPOTHÈSE


Notre hypothèse était que, dans un environnement contrôlé sans facteurs extérieurs influençant la qualité perçue d'un site Web donné, l'IA et le contenu humain fonctionneraient de la même manière.


Il n'était pas évident que Google serait même en mesure d'identifier si un nouveau contenu a été généré par l'IA ou écrit par un humain. Aussi, depuis utiliser l'IA pour générer du contenu en soi n'est pas contraire aux directives de Google, il n'était pas clair non plus que l'utilisation de l'IA pour générer du contenu aurait un impact sur les classements de quelque manière que ce soit.

HYPOTHÈSE

Documents Google ce qui confirme que l'utilisation de l'IA et de l'automatisation seules n'est pas contraire à leurs directives.

 

De notre hypothèse, nous savions que l'objectif de l'expérience serait d'isoler l'utilisation du contenu généré par l'IA en tant que variable indépendante.

 

En isolant avec succès l'utilisation du contenu de l'IA en tant que variable indépendante, nous avons pu découvrir quel impact (le cas échéant) cela avait sur le classement des domaines de test.

 

MÉTHODOLOGIE

MÉTHODOLOGIE

Comme pour tous nos Expériences de référencement, la première étape du test de notre hypothèse consistait à planifier une méthodologie complète qui isolerait efficacement d'autres facteurs de classement tout en nous permettant de tester correctement notre variable indépendante.

 

Ci-dessous, nous avons expliqué en détail à quoi ressemblait exactement notre méthodologie et toutes les choses que nous avons dû prendre en compte lors de la réalisation de l'expérience.

 

SÉLECTION DU MOT-CLÉ DE TEST

SÉLECTION DU MOT-CLÉ DE TEST

Une recherche Google de notre mot clé de test avant le début de l'expérience n'a donné aucun résultat.

 

Nous savions que cibler un sujet et un mot-clé réels dans cette expérience risquerait d'introduire des facteurs de classement extérieurs que nous ne pouvons pas contrôler.

 

Par exemple, les algorithmes de Google peuvent prendre en compte une multitude de facteurs tels que l'actualité du contenu par rapport à d'autres contenus publiés sur le sujet et/ou les styles d'écriture d'autres sites Web de confiance traitant du sujet, pour déterminer où classer nos sites Web d'expérimentation.

 

Pour cette raison, nous avons décidé que l'utilisation d'un mot-clé artificiel serait la meilleure approche.

 

Les mots clés artificiels sont des termes de recherche dont nous pouvons confirmer qu'ils sont inconnus de Google avant notre test. Lorsqu'ils sont recherchés, ils ne renvoient aucun contenu dans l'index de Google avant la publication de nos sites Web de test.

 

Heureusement, ChatGPT lui-même s'est avéré utile lors de la création de notre mot-clé artificiel pour cette expérience.

SÉLECTION DU MOT-CLÉ DE TEST

Nous avons utilisé ChatGPT pour trouver notre mot-clé de test.

 

Nous avons utilisé ChatGPT pour trouver un mot-clé inventé, "flemparooni", que nous avons ensuite recherché pour nous assurer qu'il correspondait à nos critères d'expérimentation (qui n'était pas connu de Google avant le début de notre test).

SÉLECTION DES DOMAINES DE TEST

Ensuite, nous devions trouver des noms de domaine pour nos sites Web de test qui correspondent à nos critères afin d'éliminer le risque que des facteurs de classement au niveau du domaine aient un impact sur les résultats de l'expérience.

 

Nous avons de nouveau utilisé ChatGPT pour créer une liste de départ de noms de domaine utilisant des mots inventés.

SÉLECTION DES DOMAINES DE TEST

Nous avons utilisé ChatGPT pour créer une liste de départ de domaines de test.

 

Nous en avons exclu un car il a renvoyé des résultats de recherche larges lorsque nous l'avons recherché dans l'index de Google, et vous pouvez voir dans la capture d'écran ci-dessus que nous avons demandé à ChatGPT de nous donner une autre idée de nom de domaine en conséquence.

 

Avec notre liste de départ à portée de main, nous avons ensuite recherché chaque nom de domaine pour confirmer que les domaines que nous avons sélectionnés n'étaient associés à aucun signal de classement historique.

 

Nous avons utiliséArchives.org pour vérifier qu'aucun site Web n'avait été publié sur chaque domaine auparavant :

SÉLECTION DES DOMAINES DE TEST

Nous avons utilisé Archive.org pour confirmer qu'aucun historique connu n'était associé à nos domaines de test.

 

Nous avons également utilisé des outils de référencement tiers tels que ahrefs,Référencement majestueux, et Semrush pour confirmer qu'aucun des domaines n'avait de backlinks externes pointant vers eux ou de classements historiques dans les résultats de recherche Google :

SÉLECTION DES DOMAINES DE TEST

Nous avons utilisé ahrefs, Majestic et Semrush pour confirmer qu'aucun de nos domaines d'expérimentation n'avait de backlinks externes pointant vers eux.

 

L'analyse tout au long de l'expérience a confirmé qu'aucun des sites Web de test n'a détecté de liens externes.

 

Enfin, nous avons cherché dans l'index de Google pour vérifier qu'aucun autre résultat n'était renvoyé, ce qui suggérerait que, à un moment donné auparavant, les domaines étaient connus du moteur de recherche :

SÉLECTION DES DOMAINES DE TEST

Une recherche Google n'affichant aucun résultat pour une recherche sur l'un de nos domaines de test.

 

Toutes ces vérifications nous ont permis de poursuivre l'expérience en sachant qu'aucun signal de classement externe et/ou historique n'influencerait nos résultats de test et n'influencerait le classement des domaines d'expérimentation.

NOS DOMAINES DE TEST FINAUX :

  • Zibberlot.co.uk (AI)

  • Jibberwink.co.uk (IA)

  • Snaffflagon.co.uk (AI)

  • Blippadoo.co.uk (AI)

  • Quibbermash.co.uk (IA)

  • Mibberdoo.co.uk (Humain)

  • Frozzibit.co.uk (Humain)

  • Chumblewarp.co.uk (Humain)

  • Plozzibar.co.uk (Humain)

  • Skibberling.co.uk (humain)

 

Nous avons décidé de mener notre expérience avec 10 domaines de test, 5 qui contiendraient du contenu IA et 5 qui utiliseraient du contenu humain.

 

CRÉATION DU CONTENU DU TEST

CRÉATION DU CONTENU DU TEST

Nous nous sommes assurés que le contenu généré par l'IA et le contenu écrit par l'homme étaient également optimisés pour le mot clé de test.

 

Une fois nos mots clés artificiels et nos domaines de test sélectionnés, l'étape suivante consistait à créer l'IA et le contenu humain qui seraient publiés sur chaque domaine.

 

Nous avons dû suivre des directives strictes lors de la création de l'IA et du contenu humain pour nous assurer qu'il n'y avait pas de différences dans l'optimisation des sites Web, ce qui entraînerait leur classement différemment en raison de changements sans rapport avec la manière dont le contenu était généré.

DIRECTIVES DE CRÉATION DE CONTENU

Ci-dessous, nous avons répertorié certaines des directives que nous avons utilisées pour nous assurer que tout le contenu du test était également optimisé pour le mot clé cible :

 

  1. Tout le contenu doit contenir le même nombre de mentions du mot-clé cible.

  2. Les mentions de mots clés doivent apparaître au même endroit dans chaque élément de contenu.

  3. La signification sous-jacente du contenu doit être la même sur chaque site Web (par exemple, une pièce ne peut pas exprimer un sentiment positif alors qu'une autre exprime un sentiment négatif).

  4. Chaque site Web doit contenir un contenu d'environ la même longueur.

  5. Chaque site Web doit contenir le mot-clé cible dans des positions proéminentes pour le rendre optimisé pour le terme de recherche, sans violer le deuxième point.

  6. Aucun lien interne ou externe ne doit être inclus dans le contenu.

  7. Aucun des domaines de test ne doit contenir de contenu, de pages ou de signaux d'autorité/de confiance supplémentaires (par exemple, pas de NAP).

 

Nous avons créé le contenu généré par l'IA dans l'équipe SEO tout en travaillant en étroite collaboration avec notre équipe de marketing de contenu pour créer le contenu humain. Chaque élément de contenu a été examiné par rapport aux directives énumérées ci-dessus pour confirmer qu'ils étaient égaux en ce qui concerne l'optimisation de leurs mots clés.

 

GÉNÉRER LE CONTENU IA

GÉNÉRER LE CONTENU IA

Nous avons utilisé ChatGPT, modèle GPT-4, pour créer le contenu généré par l'IA.

 

Nous avons d'abord créé une invite que nous pourrions ensuite saisir dans ChatGPT pour générer le contenu de l'IA utilisé dans cette expérience.

 

Comme prévu, ChatGPT n'a eu aucun problème à cracher 5 variantes de notre contenu souhaité et a livré ce que nous avions demandé avec une cohérence remarquable.

 

La similitude entre le contenu généré par l'IA signifiait qu'il restait bien dans nos directives de création de contenu.

 

ÉCRITURE DU CONTENU HUMAIN

ÉCRITURE DU CONTENU HUMAIN

Nous avons fourni des directives à nos rédacteurs de contenu pour nous assurer que le contenu qu'ils ont créé était tout aussi optimisé pour le mot-clé de test que le contenu généré par l'IA.

 

Notre marketing de contenu l'équipe nous a aidés à livrer plusieurs Expériences de référencement au fil des ans, ils savaient donc bien comment écrire du contenu adapté à ce genre d'expériences.

 

Nous avons fourni un brief pour la création de contenu qui garantissait que le contenu créé serait tout aussi optimisé que le texte généré par l'IA, maisles rédacteurs de contenu humain n'ont pas vu le texte généré par l'IA avant d'écrire leur contenu.

L'équipe s'est mise à écrire les 4 variantes supplémentaires dont nous avions besoin pour nos sites de test et, dans la journée qui a suivi la demande, nous avions tout le contenu de test dont nous aurions besoin pour cette expérience.

 

COMPARAISON DE L'IA ET DU CONTENU HUMAIN

COMPARAISON DE L'IA ET DU CONTENU HUMAIN

Nous avons utilisé des outils de détection de contenu IA pour voir si les outils disponibles à l'époque pouvaient identifier notre contenu généré par IA (ils ne le pouvaient pas).

 

Même si nous ne saurions pas vraiment si Google pourrait faire la différence entre nos sites de test d'IA et ceux écrits par l'homme jusqu'à ce qu'ils soient indexés et classés, nous étions toujours intéressés de savoir à quel point les outils de détection de contenu d'IA tiers étaient disponibles. étaient à le détecter.

 

 

Nous avons exécuté tout le contenu généré par l'IA et humain via plusieurs outils de détection de contenu d'IA en ligne et, à l'époque, aucun d'entre eux n'identifiait correctement aucun de nos contenus d'IA.

COMPARAISON DE L'IA ET DU CONTENU HUMAIN

Le modèle GPT4 n'était pas sorti depuis longtemps et on se doutait que les outils de détection de contenu n'avaient pas encore rattrapé le dernier modèle.

 

 

Fait intéressant, lorsque nous sommes revenus et avons retesté tous les sites Web lors de la rédaction de cette expérience, les outils ont récupéré le contenu de l'IA de manière beaucoup plus cohérente.

COMPARAISON DE L'IA ET DU CONTENU HUMAIN

Dans nos tests post-expérimentaux,l'outil Crossplag AI Content Detector n'a pas réussi à détecter l'un des sites Web de contenu AI. Il a également identifié correctement tous les écrits humains (comme cela avait été le cas au début de l'expérience).

COMPARAISON DE L'IA ET DU CONTENU HUMAIN

Il semblerait que les outils de détection de contenu IA tiers s'améliorent beaucoup pour identifier le contenu qui a été généré par les grands modèles de langage plus avancés.

 

 

Compte tenu du rythme d'amélioration rapide de cette technologie, il est formidable de voir les outils de détection progresser aussi fortement dans un laps de temps relativement court (3 mois).

 

PUBLICATION DES SITES DE TEST

PUBLICATION DES SITES DE TEST

Une fois notre contenu prêt, l'étape suivante consistait à publier les sites Web de test.

 

Tirant les enseignements de nos expériences précédentes, nous nous sommes assurés que chacun des sites Web était publié d'une manière qui n'introduisait aucun signal de classement direct ou indirect qui rendrait nos données moins fiables et précises.

 

Nous avons utilisé un modèle HTML simple et similaire pour chaque site Web qui semblait presque identique, avec seulement de petits changements de style (par exemple, une police et un arrière-plan différents). Les modèles utilisaient également des noms de classe et d'ID CSS uniques afin qu'ils ne soient pas des doublons complètement identiques/exacts.

PUBLICATION DES SITES DE TEST

 

Chaque domaine était hébergé sur AWS avec uniquement une adresse IP de classe C différente, afin de maintenir des scores de vitesse et de performances égaux sur tous les sites Web.

PUBLICATION DES SITES DE TEST

Nous avons utilisé StatusCake pour nous assurer que la vitesse, les performances et la disponibilité des sites Web de test restent égales.

 

Nous avons utilisé StatusCake exécuter des tests horaires de vitesse et de disponibilité tout au long de l'expérience pour s'assurer que les scores de vitesse et de performance restent égaux dans tous les domaines tout au long de l'expérience.

MINIMISER LES FACTEURS DE CLASSEMENT EXTERIEURS

Ci-dessous, nous avons résumé les façons dont nous avons minimisé le risque que des facteurs de classement externes directs et indirects influencent nos résultats de test :

 

  1. Nouveaux noms de domaine sans backlinks externes pointant vers eux.

  2. Les noms de domaine n'avaient jamais été indexés/connus de Google auparavant.

  3. Les noms de domaine n'avaient jamais eu de sites Web hébergés sur eux.

  4. L'utilisation d'un nouveau mot-clé artificiel pour minimiser tout facteur lié à E-E-A-T.

  5. Contenu également optimisé sur chaque site Web.

  6. HTML et CSS presque identiques pour maintenir la vitesse et les performances constantes sur les sites Web de test.

  7. Lancement des sites Web de test le même jour/dans la même heure pour empêcher tout facteur lié à l'âge d'influencer les résultats.

  8. Vérifications horaires de la vitesse et de la disponibilité pour s'assurer que la vitesse et les performances étaient égales.

  9. Même configuration d'hébergement pour chaque site Web (tous hébergés sur la même instance AWS et utilisant Cloudflare).

  10. Aucune recherche du mot-clé pendant toute la période de test (nous avons utilisé des outils externes pour le suivi du classement).

  11. Personne en dehors de notre Société de référencement connaissaient ou visitaient les domaines de test tout au long de l'expérience.

 

La capacité à minimiser toute influence des facteurs de classement en dehors de notre variable indépendante de cette manière est ce qui rend ces expériences contrôlées si difficiles à exécuter, mais c'est aussi ce qui rend leurs résultats aussi précis que possible.

 

SUIVI DE RANG ET RAPPORTS

SUIVI DE RANG ET RAPPORTS

Nous avons utilisé Semrush pour suivre le classement de nos sites Web de test.

 

Pour éviter d'introduire toute influence potentielle des signaux d'engagement avec le SERP pour notre mot-clé artificiel, nous nous sommes assurés que personne n'a recherché le mot-clé de test tout au long de l'expérience.

Nous avons utilisé Semrush pour suivre le classement de nos sites de test, et s'est référé à ces données lors de l'analyse des résultats.

Tous les sites Web de test ont été suivis dans le cadre d'une campagne de suivi de position Semrush, garantissant que les classements étaient mis à jour en même temps et qu'aucun facteur de localisation et/ou de personnalisation n'influencerait les données.

Le suivi du classement a été effectué une fois par jour pendant toute la durée de l'expérience.

 

RÉSULTATS

RÉSULTATS
RÉSULTATS

 

Les données de suivi du classement montrent clairement que lele contenu écrit par l'homme est mieux classé que le contenu généré par l'IA.

RÉSULTATS

 

Si nous examinons les données à partir du moment où tous les sites Web de test ont été classés pour le mot clé cible, leLes domaines générés par l'IA avaient un classement moyen de 6,6 tandis que leles domaines écrits par l'homme avaient un classement moyen de 4,4.

RÉSULTATS

S'il était très intéressant de voir les domaines de contenu écrit par l'homme surpasser les domaines de contenu générés par l'IA, nous devions ensuite déterminer si les résultats étaient statistiquement significatifs.

 

SIGNIFICATION STATISTIQUE

SIGNIFICATION STATISTIQUE

Nous avons demandé à notre équipe de données d'examiner les résultats et de vérifier s'ils étaient statistiquement significatifs. Ils ont décidé d'exécuter un test Mann Whitney U qui indiquerait si un type de site Web (les domaines de contenu humain) avait tendance à produire de meilleurs classements que l'autre type de site Web (les domaines de contenu générés par l'IA).

 

Voici ce que notre Analyste de données Jake Teague fallait dire :

 

Le test Mann Whitney U indique si une population a tendance à produire des valeurs plus élevées que l'autre population.

"L'hypothèse nulle pour ce test est que, en sélectionnant au hasard des valeurs parmi deux populations (dans ce cas, des liens SERP pour des sites AI ou humains), la probabilité que X soit supérieur à Y est la même probabilité que Y soit supérieur à X. En bref, il s'agit essentiellement d'un test de la médiane au sein de chaque population, pour mesurer si elles sont identiques ou si elles sont différentes. Dans ce cas, une population est le classement de ce site Web au fil du temps, où une valeur inférieure signifie un classement supérieur .

 

Un test U de Mann Whitney renvoie une statistique U, qui indique à quel point le milieu des deux populations est différent l'un de l'autre. Une statistique U plus grande indique que le site AI se classe plus bas que le site humain, tandis qu'une statistique U plus petite (plus proche de 0) indique que le site AI a un classement global plus élevé que le site humain.

Pour 5 sites IA et 5 sites Humains, chaque couple de sites IA/Humain a été testé, pour un total de 25 tests. Les valeurs de chaque population ont été mesurées à partir du moment où les classements ont été générés (les valeurs de 0 ont donc été exclues).

 

Sur l'ensemble des tests effectués, 92% du temps nous avons rejeté l'hypothèse nulle. Cela signifie essentiellement qu'il y avait une différence statistiquement significative entre les médianes des classements pour les sites Web AI et Human.

Une enquête plus approfondie des résultats montre que, sur les 25 paires, 1 site Web d'IA (Blippadoo.co.uk) a surpassé 2 sites Web humains. De plus, pour 2 autres tests, nous n'avons pas réussi à rejeter l'hypothèse nulle qui implique que les médianes des populations des sites Web AI et Human étaient identiques / similaires. Cependant, pour les 21 tests restants, les sites Web humains ont surpassé ceux de l'IA. Cela a montré qu'une médiane plus petite (et donc un classement plus élevé) entraînait une plus grande U-stat dans tous les domaines.

DISCUSSION

L'expérience a clairement montré que le contenu généré par l'IA était moins bien classé (en moyenne) que le contenu généré par l'homme.

 

Nous attendons avec impatience d'entendre les réflexions et les opinions de la communauté SEO sur la manière dont Google a pu identifier le contenu généré par l'IA et en tenir compte dans son classement.

 

Nous savons que les grands modèles de langage dont nous avons discuté impliquent (mais ne sont pas nécessairement limités à) la prédiction du mot suivant, ce qui suggère qu'un algorithme pourrait déterminer mathématiquement quel texte a été généré de cette manière par rapport au contenu qui ne l'a pas été.

IMPLICATIONS

De tous nos Expériences de référencement, celui-ci a peut-être les plus grandes implications à court terme pour les propriétaires de sites Web, les rédacteurs de contenu et Agences de référencement.

 

D'une part, les données suggèrent que les créateurs de contenu n'ont pas à s'inquiéter du fait que le spam généré par l'IA les surclassera bientôt à grande échelle. D'un autre côté, cette nouvelle technologie puissante apportera inévitablement des changements aux résultats de recherche et au travail quotidien effectué par les professionnels du référencement.

 

Nous voyons déjà des moteurs de recherche comme Bing et Google intégrer l'IA générative dans leurs résultats de recherche, et il ne faudra peut-être pas longtemps avant que ceux qui génèrent tout leur trafic organique en publiant des articles d'information génériques se retrouvent en concurrence avec les moteurs de recherche eux-mêmes.

LIMITES

Il est important de discuter des limites de toute étude, et nous voulions profiter de cette occasion pour discuter de certaines des limites que nous avons observées lors de la réalisation de l'expérience. Ci-dessous, nous avons commenté certaines des limites que nous avons identifiées lors de la rédaction de notre méthodologie et de nos conclusions.

MOTS CLÉS ARTIFICIELS

La première chose à noter est que nous avons utilisé un mot-clé artificiel pour l'étude, ce que certains peuvent voir comme une limitation.

 

Les mots clés artificiels nous permettent de supprimer l'impact des facteurs de classement en dehors de notre variable indépendante, et ils sont l'un des rares moyens d'attribuer tout effet de causalité SEO à une variable indépendante.

Cependant, l'utilisation naturelle d'un mot-clé artificiel introduit l'argument selon lequel d'autres facteurs entreront en jeu lorsqu'il s'agira de classer de vrais sites Web dans une page de résultats de moteur de recherche réelle. Nous devons garder à l'esprit que c'est exactement le but de ces expériences, supprimer toute influence de classement extérieure de l'équation et affiner notre objectif et déterminer si notre variable indépendante a un impact important sur le classement des domaines d'expérience.

 

Inévitablement, nous devons garder à l'esprit tout ce qui précède lorsque nous relions les résultats de l'expérience aux performances de recherche réelles des sites Web réels.

 

Il est possible que certains domaines de contenu d'IA se classent bien en raison d'autres facteurs sur site et hors site, ou de la manière dont l'IA est utilisée, mais néanmoins, toutes choses étant égales par ailleurs, les données ont montré que le contenu écrit par l'homme avait tendance à être plus performant que le contenu généré par l'IA (pour l'instant).

TAILLE DE L'ÉCHANTILLON

Une autre limite est la taille de l'échantillon utilisé pour cette étude.

 

L'exécution de telles expériences contrôlées demande déjà beaucoup de temps, d'énergie et de ressources, et travailler avec un plus grand échantillon de sites Web de test nécessite inévitablement beaucoup plus de temps et d'argent à dépenser sur une longue période de temps.

 

Compte tenu de la configuration stricte de l'environnement de cette expérience, nous sommes convaincus que certaines informations clés peuvent être retirées de notre petit échantillon de domaines de test.

CHANGEMENTS DANS L'IA

Même depuis que nous menons cette expérience, il y a eu des progrès significatifs dans le domaine de l'IA.

 

Google a de plus en plus exprimé ses propres ambitions d'utiliser le contenu généré par l'IA dans les résultats de recherche, et de nouveaux modèles sont constamment publiés par des entreprises privées et en open source.

 

Nous pouvons le voir dans la façon dont les outils de détection de contenu de l'IA se sont améliorés au cours de l'expérience, désormais capables de détecter le contenu généré par GPT-4 de manière beaucoup plus fiable qu'ils ne le pouvaient lorsque nous avons commencé le test.

 

Il est possible que, pendant un certain temps, Google joue essentiellement au chat et à la souris pour détecter et gérer le flot de contenus générés par l'IA susceptibles d'être publiés en ligne dans les années à venir. Bien que nous devions également reconnaître que Google est depuis longtemps un leader dans le domaine, et il y a de fortes chances qu'ils soient déjà bien en avance sur ce que les autres créent dans l'espace.

ÉDITION DE CONTENU

Cette expérience n'a pas non plus examiné l'impact de l'édition et de l'affinement humains du contenu généré par l'IA sur les classements, et des travaux sont déjà en cours pour former des modèles à écrire dans le même ton de voix, format et style que l'entreprise qui le forme, ce qui est également susceptible d'influencer le caractère unique du contenu généré.

 

Il est possible, voire probable, qu'un rédacteur de contenu qualifié modifie et personnalise le contenu généré par l'IA donnera de meilleurs résultats à long terme et, pour l'instant, rendra le contenu de l'IA plus aligné avec le ton et le style de votre marque préférée.

MERCI

Nous tenions à remercier particulièrement Cyrus Shepard de SEO rapide qui ont accepté d'observer l'expérience (et certaines de nos précédentes).

 

Nous avons partagé les données brutes et le journal des expériences avec Cyrus qui a eu la gentillesse d'offrir son temps et ses réflexions sur le test et les résultats.

 

Ces expériences ne seraient pas non plus possibles sans l'aide de nos marketing de contenu, données, graphiques, équipes de développement Web, et bien sûr nos directeurs généraux Naomi et Shai Aharony qui nous permettent d'aller si loin dans le test des théories, des mythes et des idées fausses SEO largement répandus.

RÉFLEXIONS FINALES

Les progrès rapides de l'IA observés ces derniers mois ont suscité de nombreux débats, discussions et même de l'anxiété dans le paysage des agences.

 

Malheureusement, il n'est pas rare de lire des informations sur la liquidation d'équipes de contenu autrefois importantes et importantes alors que les entreprises cherchent à économiser de l'argent en externalisant leur création de contenu vers des outils d'IA.

 

L'un des principaux enseignements de cette expérience est que le contenu écrit par des rédacteurs humains qualifiés, dédiés à la création de contenu qui résonne et se connecte avec leur public cible, est toujours très demandé (par les lecteurs et par les moteurs de recherche).

 

Nous voudrions conclure en ajoutant que nous n'avons absolument pas l'intention de suivre le troupeau et continuerons à faire en sorte que notre contenu soit non seulement le meilleur, mais aussi humain.

RÉFÉRENCES, SOURCES & OUTILS UTILISÉS

 

Tags:

Get Updates from SeoSamba on LinkedIn

Access your shared brand calendar and post to your social accounts on the go (App Store) Access your shared brand calendar and post to your social accounts on the go (Google play) S'inscrire Sign in