On vit une époque un peu schizophrène pour nous, les créateurs de contenu. D’un côté, on nous bassine avec l’IA : « optimise ton workflow ! », « produis plus vite ! », « utilise ChatGPT pour tes premiers jets ! ». Et de l’autre, on agite le spectre du grand méchant loup : les détecteurs de contenu IA qui pourraient faire chuter notre SEO ou nous décrédibiliser. 🤖
Au milieu de tout ça, il y a un nom qui revient sans cesse, un peu comme le monstre sous le lit du rédacteur web : Originality.ai. Est-ce que c’est l’arbitre impartial qui garantit la qualité ou juste une source de paranoïa qui nous fait réécrire dix fois une phrase parfaitement humaine ?
Franchement, j’en avais marre de lire tout et son contraire. En tant que chef de produit IA, j’ai décidé de faire ce que je fais le mieux : mettre les mains dans le cambouis. J’ai donc pris un abonnement et j’ai mis Originality.ai à l’épreuve. Pas pour trouver la meilleure façon de « tricher », mais pour une question bien plus simple : est-ce que je peux lui faire confiance dans mon quotidien ? Allez, je vous sers un café, et je vous raconte tout.
Originality.ai, c’est quoi au juste (et à qui ça s’adresse) ?
Avant de se lancer dans le crash-test, mettons-nous d’accord sur ce qu’est la bête. Oubliez l’idée d’un simple gadget qui vous dit « IA » ou « Pas IA ». Originality.ai se présente comme un couteau suisse pour les éditeurs de contenu soucieux de la qualité.
Sa promesse tient en trois points :
- Détection d’IA : C’est sa fonction phare. L’outil scanne un texte et lui attribue un score en pourcentage : X% Original (humain) et Y% IA.
- Vérificateur de plagiat : En parallèle, il vérifie si des passages de votre texte n’ont pas été « empruntés » ailleurs sur le web. Plutôt classique, mais pratique d’avoir tout au même endroit.
- Analyse de lisibilité : Il vous donne un score de lisibilité (sur l’échelle de Flesch-Kincaid, pour les curieux) pour vous assurer que votre texte n’est pas un pavé indigeste.
Clairement, cet outil n’est pas fait pour tout le monde. Si vous écrivez votre blog perso une fois par mois, passez votre chemin. Il s’adresse avant tout aux professionnels qui gèrent de gros volumes de contenu : les agences qui travaillent avec des freelances, les éditeurs de sites qui achètent des articles en masse, ou encore les experts SEO qui veulent auditer un site avant de l’acheter.
Côté modèle économique, c’est assez simple : vous achetez des « crédits ». Un crédit analyse 100 mots. Soit vous payez au fur et à mesure, soit vous prenez un petit abonnement mensuel qui vous donne un stock de crédits à un tarif plus avantageux. Simple et efficace.
Le test de la vérité : j’ai mis Originality.ai à l’épreuve
Place à l’expérimentation ! Pour être le plus juste possible, j’ai préparé quatre « cobayes » représentatifs de ce qu’on peut lui soumettre au quotidien. Transparence totale, voici mon protocole.
Le cobaye n°1 : un texte 100% humain
J’ai déterré un vieil article de mon blog perso, écrit en 2018, bien avant que ChatGPT ne devienne la nouvelle star. Un texte sur mes randos en Vercors, plein d’anecdotes personnelles et d’un style un peu décousu. Bref, humain, très humain.
Résultat : 99% Original, 1% IA.
Le verdict est sans appel. L’outil a parfaitement reconnu ma prose. La petite phrase détectée était du genre « Le Vercors est un massif aux paysages variés », une banalité qui aurait pu être écrite par une IA. Rien d’alarmant, c’est un sans-faute. 👍
Le cobaye n°2 : un texte 100% ia
Ici, pas de chichis. J’ai ouvert ChatGPT-4 et j’ai tapé un prompt tout simple : « Rédige un article de 500 mots sur les bienfaits du télétravail ». J’ai copié-collé le résultat brut, sans changer une virgule.
Résultat : 0% Original, 100% IA.
Là encore, c’est chirurgical. Originality.ai a flairé le robot à des kilomètres. Les phrases parfaitement construites, le vocabulaire un peu trop lisse, la structure prévisible… tout y était. Mission accomplie pour le détecteur.
Le cobaye n°3 : le cas réaliste
C’est le test le plus important. J’ai utilisé l’IA comme beaucoup d’entre nous : pour générer un premier jet. J’ai demandé à Claude 4 un plan et les grandes lignes d’un article sur les outils IA pour les community managers. Ensuite, j’ai tout réécrit : j’ai ajouté mon expérience, des exemples concrets, reformulé 80% des phrases avec mon propre style, injecté une anecdote perso et corrigé des approximations.
Résultat : 87% Original, 13% IA.
Intéressant ! Le score est très bon, mais pas parfait. L’outil a « flaggué » quelques passages, souvent des définitions ou des listes de fonctionnalités qui gardaient une structure assez factuelle, proche du jet initial de l’IA. Ça montre qu’il est sensible, mais que le travail de réécriture et d’appropriation paie.
Le cobaye n°4 : le cas du ‘faux positif’
Pour ce dernier test, j’ai écrit moi-même un court texte, mais en adoptant un style volontairement « robotique » : des phrases courtes, un vocabulaire très factuel, une structure logique et sans aucune touche personnelle. Le genre de notice technique qu’on pourrait trouver pour monter un meuble suédois.
Résultat : 65% Original, 35% IA.
Et voilà le piège ! 😲 Bien que 100% humain, mon texte a été jugé « suspect ». Pourquoi ? Parce que l’IA est entraînée sur des tonnes de données textuelles et qu’elle excelle à produire des phrases prévisibles et factuelles. Si votre style humain s’en rapproche trop, vous risquez de déclencher l’alarme. C’est la limite principale de ces outils.
Verdict : alors, cet avis sur Originality.ai ?
Après ces tests, mon opinion est beaucoup plus nuancée. L’outil est puissant, mais il faut savoir l’interpréter. Sa plus grande force est aussi sa plus grande faiblesse : sa sensibilité.
Il est excellent pour repérer l’IA brute et les contenus de faible qualité générés à la chaîne. Par contre, il peut semer le doute avec son risque de « faux positifs ». Un texte humain, s’il est très direct, simple ou académique, peut être partiellement identifié comme de l’IA. Pourquoi ? Parce que ces outils ne « comprennent » pas le texte. Ils analysent des schémas, la probabilité qu’un mot suive un autre (ce qu’on appelle la « perplexity »). Un style très prévisible ressemble, statistiquement, à un style d’IA.
Pour y voir plus clair, voici un petit tableau récapitulatif :
| Les ‘Pour’ 👍 | Les ‘Contre’ 👎 |
|---|---|
| Très efficace pour détecter le contenu 100% IA | Risque de « faux positifs » sur des textes humains factuels |
| Interface claire et rapide à utiliser | Peut créer une paranoïa inutile chez le rédacteur solo |
| Combine IA, plagiat et lisibilité en un seul outil | Le score n’est qu’un indicateur, pas une vérité absolue |
| Parfait pour un audit rapide de gros volumes de contenu | Moins pertinent sur un texte très retravaillé et enrichi |
À qui je le recommande vraiment ? À l’éditeur qui gère une équipe de 10 rédacteurs et qui a besoin d’un premier filtre pour s’assurer que personne n’abuse du copier-coller depuis ChatGPT. À l’investisseur qui achète un site web et veut auditer 200 articles pour s’assurer de la qualité du contenu existant.
À qui je le déconseille ? Au créateur de contenu solo, passionné par son sujet. Le risque est de passer plus de temps à essayer de « plaire » à l’algorithme d’Originality.ai qu’à son propre lecteur, en complexifiant des phrases inutilement pour paraître « plus humain ». Ce serait un comble !
Au-delà du score : comment bien utiliser (ou ignorer) ces outils ?
La question finale n’est pas « mon texte passe-t-il le test ? », mais plutôt « mon texte est-il utile pour mon lecteur ? ». C’est ce que Google répète en boucle : ils ne pénalisent pas le contenu IA, ils pénalisent le contenu inutile, qu’il soit écrit par un humain ou un robot.
Plutôt que de vous focaliser sur un score de 100% « Original », concentrez-vous sur les bons indicateurs, ceux du fameux E-E-A-T de Google (Experience, Expertise, Authoritativeness, Trustworthiness – Expérience, Expertise, Autorité, Fiabilité).
Voyez Originality.ai comme un assistant, pas comme un juge. Si un de vos textes est flaggué à 40% IA, ne paniquez pas. Posez-vous plutôt la question : « est-ce que cette partie est trop générique ? Est-ce que je peux y ajouter un exemple concret, une expérience personnelle ? ». C’est un signal d’alerte, pas une condamnation.
La checklist anti-paranoïa : que faire si votre texte est détecté comme ia ?
Avant de tout jeter et de réécrire dans la panique, respirez un bon coup et posez-vous ces 4 questions :
- Est-ce que mon texte répond vraiment à l’intention de recherche de l’utilisateur ?
- Ai-je ajouté une expérience personnelle, une étude de cas ou un avis qui n’existe nulle part ailleurs ?
- Le style est-il engageant et facile à lire pour un humain (pas juste une liste de faits) ?
- Ai-je vérifié toutes les informations pour éviter les « hallucinations » de l’IA ?
Si la réponse est « oui » à tout, dormez sur vos deux oreilles. Votre contenu a de la valeur, et c’est tout ce qui compte.
Enfin, n’oubliez pas qu’Originality.ai n’est pas seul sur le marché. Il existe des alternatives comme Winston AI ou Copyleaks, chacune avec ses propres sensibilités. D’ailleurs, si le sujet de la détection vous intéresse, j’ai aussi fait le test d’un outil un peu différent dans mon avis sur Illuminarty, qui analyse aussi les images. Comparer les résultats entre plusieurs outils est souvent un bon moyen de relativiser un score un peu alarmant.
Au final, ma peur initiale s’est transformée en un pragmatisme éclairé. Non, Originality.ai n’est pas un monstre à craindre, mais ce n’est pas non plus une vérité divine. C’est un outil, avec ses forces et ses limites. Un thermomètre utile pour prendre la température d’un texte, à condition de ne pas oublier que le plus important, c’est la santé globale du patient : votre contenu et la valeur qu’il apporte à votre audience. 🚀
Et vous, quelle est votre expérience avec les détecteurs de contenu IA ? Partagez vos résultats les plus surprenants (ou frustrants) en commentaire !










