Détection et classification profondes des faux en utilisant l'erreur
MaisonMaison > Blog > Détection et classification profondes des faux en utilisant l'erreur

Détection et classification profondes des faux en utilisant l'erreur

Jul 18, 2023

Rapports scientifiques volume 13, Numéro d'article : 7422 (2023) Citer cet article

1607 accès

3 Altmétrique

Détails des métriques

En raison de la grande disponibilité de contenus faciles d'accès sur les médias sociaux, ainsi que des outils avancés et de l'infrastructure informatique peu coûteuse, il est très facile pour les gens de produire des contrefaçons profondes qui peuvent provoquer la diffusion de désinformations et de canulars. Cette progression rapide peut provoquer la panique et le chaos car n'importe qui peut facilement créer de la propagande en utilisant ces technologies. Par conséquent, un système robuste pour différencier le vrai contenu du faux est devenu crucial à l'ère des médias sociaux. Cet article propose une méthode automatisée pour classer les images deep fake en utilisant des méthodologies basées sur le Deep Learning et le Machine Learning. Les systèmes traditionnels basés sur l'apprentissage automatique (ML) utilisant l'extraction de caractéristiques artisanales ne parviennent pas à capturer des modèles plus complexes qui sont mal compris ou facilement représentés à l'aide de caractéristiques simples. Ces systèmes ne peuvent pas bien généraliser à des données invisibles. De plus, ces systèmes sont sensibles au bruit ou aux variations des données, ce qui peut réduire leurs performances. Par conséquent, ces problèmes peuvent limiter leur utilité dans les applications du monde réel où les données évoluent constamment. Le cadre proposé effectue initialement une analyse du niveau d'erreur de l'image pour déterminer si l'image a été modifiée. Cette image est ensuite fournie aux réseaux de neurones convolutifs pour une extraction approfondie des caractéristiques. Les vecteurs de caractéristiques résultants sont ensuite classés via les machines à vecteurs de support et les K-plus proches voisins en effectuant une optimisation des hyperparamètres. La méthode proposée a atteint la précision la plus élevée de 89,5 % via le réseau résiduel et K-Nearest Neighbor. Les résultats prouvent l'efficacité et la robustesse de la technique proposée ; par conséquent, il peut être utilisé pour détecter de fausses images profondes et réduire la menace potentielle de calomnie et de propagande.

Au cours de la dernière décennie, le contenu des médias sociaux tels que les photographies et les films a connu une croissance exponentielle en ligne grâce à des appareils peu coûteux tels que les smartphones, les appareils photo et les ordinateurs. L'essor des applications de médias sociaux a permis aux gens de partager rapidement ce contenu sur les plateformes, augmentant considérablement le contenu en ligne et offrant un accès facile. Dans le même temps, nous avons constaté d'énormes progrès dans les algorithmes complexes mais efficaces d'apprentissage automatique (ML) et d'apprentissage en profondeur (DL) qui peuvent être déployés pour manipuler le contenu audiovisuel afin de diffuser des informations erronées et de nuire à la réputation des personnes en ligne. Nous vivons maintenant à une époque où la diffusion de la désinformation peut être facilement utilisée pour influencer les opinions des gens et peut être utilisée dans la manipulation électorale ou la diffamation de n'importe quel individu. La fausse création profonde a considérablement évolué ces dernières années, et elle pourrait être utilisée pour répandre la désinformation dans le monde entier, posant bientôt une grave menace. Les deep fakes sont des contenus audio et vidéo synthétisés générés via des algorithmes d'IA. L'utilisation de vidéos comme preuve dans les litiges et les affaires pénales est une pratique courante. L'authenticité et l'intégrité de toute vidéo soumise comme preuve doivent être établies. Surtout lorsque la génération de faux profonds devient plus complexe, cela devrait devenir une tâche difficile.

Les catégories suivantes de vidéos deep fake existent : échange de visage, synthèse et manipulation des traits du visage. Dans les deep fakes face-swap, le visage d'une personne est échangé avec celui de la personne source pour créer une fausse vidéo afin de cibler une personne pour les activités qu'elle n'a pas commises1, ce qui peut ternir la réputation de la personne2. Dans un autre type de faux profond appelé synchronisation labiale, les lèvres de la personne cible sont manipulées pour modifier les mouvements en fonction d'une certaine piste audio. Le but de la synchronisation labiale est de simuler la voix de l'agresseur en faisant parler quelqu'un avec cette voix. Avec le marionnettiste, des faux profonds sont produits en imitant les expressions faciales, les mouvements des yeux et les mouvements de la tête de la cible. En utilisant des profils fictifs, cela est fait pour propager de fausses informations sur les réseaux sociaux. Enfin et surtout, les faux audio profonds ou le clonage de voix sont utilisés pour manipuler la voix d'un individu qui associe quelque chose à l'orateur qu'il n'a pas dit en réalité1,3.

L'importance de découvrir la vérité dans le domaine numérique a donc augmenté. Traiter avec des contrefaçons profondes est beaucoup plus difficile car ils sont principalement utilisés à des fins nuisibles et pratiquement n'importe qui peut désormais produire des contrefaçons profondes en utilisant les outils déjà disponibles. De nombreuses stratégies différentes ont été mises en place jusqu'à présent pour trouver des contrefaçons profondes. Comme la plupart sont également basées sur l'apprentissage en profondeur, un conflit entre les mauvaises et les bonnes applications d'apprentissage en profondeur s'est développé4. Ainsi, pour résoudre ce problème, la Defense Advanced Research Projects Agency (DARPA) des États-Unis a lancé un plan de recherche médico-légale pour développer de fausses méthodes de détection de médias numériques5. De plus, en collaboration avec Microsoft, Facebook a également annoncé un défi de détection des faux profonds basé sur l'IA pour empêcher que les faux profonds ne soient utilisés pour tromper les téléspectateurs6.

Au cours des dernières années, plusieurs chercheurs ont exploré les domaines du Machine Learning et du Deep Learning (DL) pour détecter les deep fakes des médias audiovisuels. Les algorithmes basés sur ML utilisent une extraction manuelle de caractéristiques fastidieuse et erronée avant la phase de classification. Par conséquent, les performances de ces systèmes sont instables lorsqu'il s'agit de bases de données plus volumineuses. Cependant, les algorithmes DL exécutent automatiquement ces tâches, qui se sont avérées extrêmement utiles dans diverses applications, y compris la détection profonde des faux. Le réseau neuronal convolutif (CNN), l'un des modèles DL les plus importants, est fréquemment utilisé en raison de ses performances de pointe qui extrait automatiquement les fonctionnalités de bas niveau et de haut niveau de la base de données. Par conséquent, ces méthodes ont suscité l'intérêt des chercheurs pour les scientifiques du monde entier7.

Malgré des recherches substantielles sur le sujet de la détection des deep fakes, il existe toujours un potentiel d'amélioration en termes d'efficience et d'efficacité. On peut noter que les techniques de génération de faux profonds s'améliorent rapidement, ce qui entraîne des ensembles de données de plus en plus difficiles sur lesquels les techniques précédentes peuvent ne pas fonctionner efficacement. La motivation derrière le développement de systèmes automatisés de détection de faux profonds basés sur DL est d'atténuer les dommages potentiels causés par la technologie de faux profonds. Les faux contenus profonds peuvent tromper et manipuler les gens, entraînant de graves conséquences, telles que des troubles politiques, des fraudes financières et des atteintes à la réputation. Le développement de tels systèmes peut avoir des impacts positifs significatifs sur diverses industries et domaines. Ces systèmes améliorent également la confiance et la fiabilité des médias et du contenu en ligne. À mesure que la technologie de contrefaçon devient plus sophistiquée et accessible, il est important de disposer d'outils fiables pour faire la distinction entre le vrai et le faux contenu. Par conséquent, développer un système robuste pour détecter les contrefaçons profondes des médias est devenu très nécessaire à l'ère des médias sociaux. Cet article est une continuation de l'étude fournie par Rimsha et al.8. L'article compare les performances des architectures CNN telles qu'AlexNet et VGG16 pour détecter si l'image est réelle ou a été modifiée numériquement. Les principaux apports de cette étude sont les suivants :

Dans cette étude, nous proposons une nouvelle méthode de détection et de classification des faux en profondeur utilisant des méthodes basées sur DL et ML.

Le cadre proposé prétraite l'image en la redimensionnant en fonction de la couche d'entrée de CNN, puis en effectuant une analyse du niveau d'erreur pour trouver toute manipulation numérique au niveau du pixel.

L'image ELA résultante est fournie aux réseaux de neurones convolutifs, c'est-à-dire GoogLeNet, ResNet18 et SqueezeNet, pour une extraction approfondie des caractéristiques.

Des expériences approfondies sont menées pour trouver le réglage optimal d'hyper-paramètres par réglage d'hyper-paramètres.

Les performances de la technique proposée sont évaluées sur l'ensemble de données accessible au public pour la détection profonde des faux.

Le tout premier faux profond a été développé en 1860, lorsqu'un portrait du dirigeant sudiste John Calhoun a été savamment modifié pour la propagande en échangeant sa tête contre le président américain. Ces manipulations sont généralement effectuées en fusionnant, en peignant et en copiant les éléments à l'intérieur ou entre deux photos. Les processus de post-traitement appropriés sont ensuite utilisés pour améliorer l'attrait visuel, l'échelle et la cohérence de la perspective. Ces étapes comprennent la mise à l'échelle, la rotation et la modification des couleurs9,10. Une gamme de procédures automatisées de manipulation numérique avec une cohérence sémantique améliorée sont maintenant disponibles en plus de ces méthodes de manipulation conventionnelles grâce aux développements de l'infographie et des techniques ML/DL. Les modifications apportées aux médias numériques sont devenues relativement abordables en raison des logiciels largement disponibles pour développer un tel contenu. La manipulation dans les médias numériques augmente à un rythme très rapide, ce qui nécessite le développement de tels algorithmes pour détecter et analyser de manière robuste ce contenu afin de trouver la différence entre le bien et le mal11,12,13.

Bien qu'il s'agisse d'une technologie relativement nouvelle, le deep fake a fait l'objet d'enquêtes. Ces dernières années, il y avait eu une augmentation considérable des articles contrefaits profonds vers la fin de 2020. En raison de l'avènement des techniques basées sur ML et DL, de nombreux chercheurs ont développé des algorithmes automatisés pour détecter les contrefaçons profondes à partir de contenus audiovisuels. Ces techniques ont aidé à découvrir facilement le contenu réel et faux. L'apprentissage en profondeur est bien connu pour sa capacité à représenter des données complexes et de grande dimension11,14. Matern et al.15 ont utilisé des deep fakes détectés à partir de l'ensemble de données Face Forensics en utilisant le perceptron multicouche (MLP) avec une AUC de 0,85. Cependant, l'étude ne considère que les images faciales avec les yeux ouverts. Agarwal et al.16 ont extrait les caractéristiques à l'aide de la boîte à outils Open Face 2 et ont effectué une classification via SVM. Le système a obtenu 93 % d'AUC ; cependant, le système fournit des résultats incorrects lorsqu'une personne ne fait pas face à la caméra. Les auteurs de Ciftci et al.17 ont extrait les caractéristiques des signaux médicaux et effectué une classification via CNN avec une précision de 97 %. Cependant, le système est complexe en termes de calcul en raison d'un très grand vecteur de caractéristiques. Dans leur étude, Yang et al.18 ont extrait des repères faciaux 68-D à l'aide de DLib et ont classé ces caractéristiques via SVM. Le système a obtenu 89% de ROC. Cependant, le système n'est pas robuste au flou et nécessite une étape de prétraitement. Rossle et al.19 ont utilisé SVM + CNN pour la classification des caractéristiques et une matrice de cooccurrence pour l'extraction des caractéristiques. Le système a atteint une précision de 90,29 % sur l'ensemble de données Face Forensics. Cependant, le système donne de mauvais résultats sur les vidéos compressées. McCloskey et al.20 ont développé un détecteur de faux profonds en utilisant la dissemblance des couleurs entre la caméra réelle et les échantillons d'images synthétisées et réelles. Le classificateur SVM a été formé sur les caractéristiques basées sur la couleur à partir des échantillons d'entrée. Cependant, le système peut avoir des difficultés avec des images non prétraitées et floues.

Un cadre d'apprentissage multitâche hybride avec un optimiseur Fire Hawk pour la détection des fausses nouvelles en arabe vise à résoudre le problème de l'identification des fausses nouvelles en langue arabe. L'étude propose une approche hybride qui exploite la puissance de plusieurs tâches pour détecter les fausses nouvelles avec plus de précision et d'efficacité. Le cadre utilise une combinaison de trois tâches, à savoir la classification des phrases, la détection de position et la prédiction de la pertinence, pour déterminer l'authenticité de l'article d'actualité. L'étude suggère également l'utilisation de l'algorithme Fire Hawk Optimizer, un algorithme d'optimisation inspiré de la nature, pour affiner les paramètres du cadre. Cela permet d'améliorer la précision du modèle et d'obtenir de meilleures performances. Le Fire Hawk Optimizer est un algorithme efficace et robuste qui s'inspire du comportement de chasse des faucons. Il utilise une stratégie de recherche globale et locale pour rechercher la solution optimale21. Les auteurs in22 proposent une architecture Convolution Vision Transformer (CVT) qui diffère de CNN en ce qu'elle repose sur une combinaison de mécanismes d'attention et d'opérations de convolution, ce qui la rend plus efficace dans la reconnaissance des modèles dans les images. La couche d'auto-attention apprend à se concentrer sur les régions critiques de l'image d'entrée sans avoir besoin d'opérations de convolution, tandis que la couche MLP aide à extraire les caractéristiques de ces régions. Les entités extraites sont ensuite transmises à la couche de sortie pour prendre la décision de classification finale. Cependant, le système est coûteux en calcul en raison de son architecture profonde. Guarnera et al.23 ont identifié de fausses images profondes en utilisant la maximisation des attentes pour extraire les caractéristiques et SVM, KNN, LDA comme méthodes de classification. Cependant, le système ne parvient pas à reconnaître les images compressées. Nguyen et al.24 ont proposé une architecture basée sur CNN pour détecter les faux contenus profonds et ont obtenu une précision de 83,7 % sur l'ensemble de données Face Forensics. Cependant, le système est incapable de bien généraliser sur des cas non vus. Khalil et al.25 ont utilisé des modèles binaires locaux (LBP) pour l'extraction de caractéristiques et CNN et Capsule Network pour la détection profonde des faux. Les modèles ont été entraînés sur l'ensemble de données Deep Fake Detection Challenge-Preview et testés sur les ensembles de données DFDC-Preview et Celeb-DF. Une approche de faux profond développée par Afchar et al.26 a utilisé MesoInception-4 et a atteint un taux de vrais positifs de 81,3 % via l'ensemble de données Face Forensics.

Cependant, le système nécessite un prétraitement avant l'extraction et la classification des caractéristiques. Par conséquent, les performances globales sont faibles sur les vidéos de faible qualité. Wang et al.27 ont évalué les performances des Réseaux Résiduels sur la fausse classification profonde. Les auteurs ont utilisé ResNet et ResNeXt, sur des vidéos de l'ensemble de données Face forensics. Dans une autre étude de Stehouwer et al.28, les auteurs ont présenté une approche basée sur CNN pour la détection profonde de faux contenus qui a atteint une précision globale de 99 % sur Diverse Fake Face Dataset. Cependant, le système est coûteux en calcul en raison d'un vecteur de caractéristiques de très grande taille. Malgré des progrès significatifs, les algorithmes DL existants sont coûteux en calcul à former et nécessitent des GPU haut de gamme ou du matériel spécialisé. Cela peut rendre difficile pour les chercheurs et les organisations disposant de ressources limitées de développer et de déployer des modèles d'apprentissage en profondeur. De plus, certains des algorithmes DL existants sont sujets au surajustement, qui se produit lorsque le modèle devient trop complexe et apprend à mémoriser les données d'apprentissage plutôt que d'apprendre des modèles généralisables. Cela peut entraîner des performances médiocres sur de nouvelles données invisibles. Les limites des méthodologies actuelles prouvent qu'il est toujours nécessaire de développer une méthode de détection et de classification des faux profonds robuste et efficace à l'aide d'approches basées sur ML et DL.

Cette section traite du flux de travail proposé utilisé pour la détection des contrefaçons profondes. Le diagramme de flux de travail de notre cadre proposé est illustré à la Fig. 1. Le système proposé comprend trois étapes principales (i) le prétraitement de l'image en redimensionnant l'image en fonction de la couche d'entrée de CNN, puis en générant une analyse du niveau d'erreur de l'image pour déterminer les modifications au niveau des pixels (ii) extraction de caractéristiques profondes via les architectures CNN (iii) classification via SVM et KNN en effectuant une optimisation des hyperparamètres.

Diagramme de flux de travail de la méthode proposée.

L'analyse du niveau d'erreur, également connue sous le nom d'ELA, est une technique médico-légale utilisée pour identifier les segments d'image avec différents niveaux de compression. En mesurant ces niveaux de compression, le procédé détermine si une image a subi un montage numérique. Cette technique fonctionne mieux sur les images .JPG car dans ce cas, tous les pixels de l'image doivent avoir à peu près les mêmes niveaux de compression et peuvent varier en cas de falsification29,30.

JPEG (Joint Photographic Experts Group) est une technique de compression avec perte d'images numériques. Un algorithme de compression de données supprime (perd) certaines des données pour les compresser. Le niveau de compression pourrait être utilisé comme un compromis acceptable entre la taille et la qualité de l'image. En règle générale, le taux de compression JPEG est de 10:1. La technique JPEG utilise des grilles d'images de 8 × 8 pixels compressées indépendamment. Toute matrice supérieure à 8 × 8 est plus difficile à manipuler théoriquement ou n'est pas prise en charge par le matériel, tandis que toute matrice inférieure à 8 × 8 manque d'informations suffisantes.

Par conséquent, les images compressées sont de mauvaise qualité. Toutes les grilles 8 × 8 pour les images non modifiées doivent avoir le même niveau d'erreur, ce qui permet de réenregistrer l'image. Étant donné que les défauts sont uniformément répartis sur toute l'image, chaque carré devrait se détériorer à peu près au même rythme. La grille modifiée dans une image modifiée devrait avoir un potentiel d'erreur plus élevé que le reste31.

ELA. L'image est réenregistrée avec un taux d'erreur de 95 % et la différence entre les deux images est calculée. Cette technique détermine s'il y a un changement dans les cellules en vérifiant si les pixels sont à leurs minima locaux8,32. Cela aide à déterminer s'il y a une falsification numérique dans la base de données. L'ELA est calculée sur notre base de données, comme le montre la Fig. 2.

Résultat de l'ELA sur les images du jeu de données.

La découverte de CNN a accru sa popularité parmi les universitaires et les a motivés à résoudre des problèmes difficiles auxquels ils avaient auparavant renoncé. Les chercheurs ont conçu plusieurs conceptions de CNN ces dernières années pour faire face à de multiples défis dans divers domaines de recherche, y compris la détection profonde des faux. L'architecture générale de CNN, comme le montre la figure 3, est généralement composée de plusieurs couches empilées les unes sur les autres. L'architecture de CNN consiste en un module d'extraction de caractéristiques composé de couches convolutives pour apprendre les caractéristiques et les couches de regroupement réduisent la dimensionnalité de l'image. Deuxièmement, il consiste en un module comprenant une couche entièrement connectée (FC) pour classer une image33,34.

Architecture générale de CNN.

L'image est entrée à l'aide de la couche d'entrée transmise à la convolution pour l'extraction de caractéristiques profondes. Cette couche apprend les caractéristiques visuelles de l'image en préservant la relation entre ses pixels. Ce calcul mathématique est effectué sur une matrice d'image en utilisant un filtre/noyau de la taille spécifiée35. La couche max-pooling réduit les dimensions de l'image. Ce processus permet d'augmenter la vitesse d'entraînement et de réduire la charge de calcul pour les étapes suivantes36. Certains réseaux peuvent inclure des couches de normalisation, c'est-à-dire une normalisation par lots ou une couche d'abandon. La couche de normalisation par lots stabilise les performances de formation du réseau en effectuant des opérations de normalisation sur l'entrée des mini-lots. Alors que la couche d'abandon abandonne de manière aléatoire certains nœuds pour réduire la complexité du réseau, augmentant ainsi les performances du réseau37,38. Les dernières couches du CNN comprennent une couche FC avec une fonction de probabilité softmax. La couche FC stocke toutes les caractéristiques extraites des phases précédentes. Ces caractéristiques sont ensuite fournies aux classificateurs pour la classification des images38. Étant donné que les architectures CNN peuvent extraire des fonctionnalités importantes sans aucune intervention humaine, nous avons donc utilisé des CNN pré-formés tels que GoogLeNet39, ResNet1831 et SqueezeNet40 dans cette étude. On peut noter que le développement et la formation d'une architecture d'apprentissage en profondeur à partir de zéro est non seulement une tâche chronophage, mais nécessite des ressources de calcul ; par conséquent, nous utilisons des architectures CNN pré-formées comme extracteurs de fonctionnalités profondes dans notre cadre proposé.

Microsoft a introduit l'architecture Residual Network (ResNet) en 2015 qui se compose de plusieurs couches de convolution de taille de noyau 3 × 3, une couche FC suivie d'une couche softmax supplémentaire pour la classification. Parce qu'ils utilisent des connexions raccourcies qui sautent un ou plusieurs niveaux, les réseaux résiduels sont efficaces et à faible coût de calcul41. Au lieu d'anticiper que chaque pile de couches correspondra instantanément à un mappage sous-jacent spécifié, les couches correspondent à un mappage résiduel. Du fait que les sorties résultantes sont ajoutées à celles des couches empilées, ces connexions rapides réduisent la perte de valeur pendant l'apprentissage. Cette fonctionnalité aide également à former l'algorithme beaucoup plus rapidement que les CNN conventionnels.

De plus, ce mappage n'a pas de paramètres car il transfère la sortie à la couche suivante. L'architecture ResNet a surpassé les autres CNN en atteignant le taux d'erreur le plus bas de 5 % dans un travail de classification, soit 3,57 %31,42. L'architecture de ResNet50 est illustrée à la Fig. 443.

Architecture ResNet1844.

SqueezNet a été développé par des chercheurs de l'UC Berkeley et de l'Université de Stanford. Il s'agit d'une architecture très légère et petite. Les architectures CNN plus petites sont utiles car elles nécessitent moins de communication entre les serveurs dans la formation distribuée. De plus, ces CNN s'entraînent également plus rapidement et nécessitent moins de mémoire, ils ne sont donc pas coûteux en calcul par rapport aux CNN profonds conventionnels. En modifiant l'architecture, les chercheurs affirment que SqueezeNet peut atteindre une précision de niveau AlexNet via un CNN45 plus petit. Comme un filtre 1 × 1 contient 9 fois moins de paramètres qu'un filtre 3 × 3, les filtres 3 × 3 de ces modifications ont été remplacés par des filtres 1 × 1. De plus, le nombre de canaux d'entrée est réduit à 3 × 3 filtres via des couches de compression, ce qui réduit le nombre global de paramètres.

Enfin, le sous-échantillonnage est effectué très tard dans le réseau, de sorte que les grandes cartes d'activation des couches de convolution sont censées augmenter la précision de la classification40. Développé par des chercheurs de Google, GoogLeNet est un réseau de neurones à convolution profonde à 22 couches qui utilise une taille de filtre de convolution de 1 × 1, un pooling moyen global et une taille d'entrée de 224 × 224 × 3. L'architecture de GoogLeNet est illustrée à la Fig. 5. Pour augmenter la profondeur de l'architecture du réseau, la taille du filtre de convolution est réduite à 1 × 1. carte d'entités et la moyenne à une carte d'entités 1 × 1. Cela permet de réduire les paramètres d'apprentissage et d'améliorer les performances du système. Une régularisation d'abandon de 0,7 est également utilisée dans l'architecture, et les caractéristiques sont stockées dans une couche FC39.

Architecture GoogLeNet46.

Les CNN extraient les caractéristiques des images de manière hiérarchique à l'aide de couches convolutionnelles, de mise en commun et entièrement connectées. Les fonctionnalités extraites par les CNN peuvent être classées en deux grandes catégories : les fonctionnalités de bas niveau et les fonctionnalités de haut niveau. Les fonctionnalités de bas niveau incluent les bords, les coins et les variations d'intensité. Les CNN peuvent détecter les bords en faisant convoluer l'image d'entrée avec un filtre qui met en évidence les bords de l'image. Ils peuvent également détecter les coins en faisant convoluer l'image d'entrée avec un filtre qui met en évidence les coins. De plus, les CNN peuvent extraire des caractéristiques de couleur en faisant convoluer l'image d'entrée avec des filtres qui mettent en évidence des couleurs spécifiques. D'autre part, les fonctionnalités de haut niveau incluent la texture, les objets et les fonctionnalités contextuelles et hiérarchiques. Les textures des images sont détectées en faisant convoluer l'image d'entrée avec des filtres qui mettent en évidence différentes textures. Les CNN détectent les objets en faisant convoluer l'image d'entrée avec des filtres mettant en évidence différentes formes. Alors que les caractéristiques contextuelles sont extraites en considérant les relations entre les différents objets de l'image. Enfin, les CNN peuvent apprendre à extraire des caractéristiques hiérarchiques en empilant plusieurs couches convolutionnelles les unes sur les autres. Les couches inférieures extraient les fonctionnalités de bas niveau, tandis que les couches supérieures extraient les fonctionnalités de haut niveau.

Nous avons classé les fonctionnalités CNN profondes via les classificateurs SVM et KNN dans cette phase. KNN a gagné en popularité dans la communauté des chercheurs dans les tâches de classification et de régression car il surpasse de nombreux autres classificateurs existants en raison de sa simplicité et de sa robustesse. KNN calcule la distance entre un échantillon de test (k) et ses voisins, puis regroupe l'échantillon de test k à son voisin le plus proche. Le classificateur KNN est illustré à la Fig. 6

KNN.

Le deuxième classificateur utilisé dans cette étude est SVM, un classificateur très populaire fréquemment utilisé dans de nombreux domaines de recherche en raison de ses vitesses plus rapides et de ses résultats de prédiction supérieurs, même sur un ensemble de données minimal. Le classificateur trouve le plan avec la plus grande marge qui sépare les deux classes. Plus la marge est large, meilleure est la performance de classification du classifieur30,47. La figure 7A représente les hyperplans potentiels pour un problème de classification particulier, tandis que la figure 7B représente le meilleur hyperplan déterminé par SVM pour ce problème.

Hyperplans SVM possibles30.

Cette étude utilise un ensemble de données accessible au public compilé par le laboratoire d'intelligence computationnelle et de photographie de l'Université Yonsei. La base de données de visages réels et faux du laboratoire d'intelligence informatique et de photographie de l'Université Yonsei est un ensemble de données qui contient des images de visages humains réels et faux. L'ensemble de données a été conçu pour être utilisé dans la recherche et le développement de systèmes de reconnaissance faciale et de vérification, en particulier ceux conçus pour détecter des images fausses ou manipulées. Chaque image de l'ensemble de données est étiquetée comme réelle ou fausse, et l'ensemble de données comprend également des informations supplémentaires sur l'image, telles que l'âge, le sexe et l'origine ethnique du sujet, ainsi que la technique de manipulation utilisée pour les fausses images. De plus, les images contiennent différents visages, divisés par les yeux, le nez, la bouche ou le visage entier. Les images manipulées sont subdivisées en trois catégories : images faciles, intermédiaires et difficiles, comme illustré à la Fig. 848.

Échantillons d'images de l'ensemble de données montrant des images réelles et modifiées.

Les métriques d'évaluation sont utilisées dans l'apprentissage automatique pour mesurer les performances d'un modèle. Les modèles d'apprentissage automatique sont conçus pour apprendre à partir des données et faire des prédictions ou des décisions basées sur ces données. Il est important d'évaluer les performances d'un modèle pour comprendre ses performances et apporter les améliorations nécessaires. L'une des techniques les plus couramment utilisées est une matrice de confusion, un tableau permettant d'évaluer les performances d'un modèle de classification en comparant les classes réelles et prévues pour un ensemble de données de test. Il s'agit d'une matrice de quatre valeurs : les vrais positifs (TP), les faux positifs (FP), les vrais négatifs (TN) et les faux négatifs (FN). Le cadre proposé est évalué en utilisant l'exactitude, la précision, le rappel et le score f1. Même si la précision est une mesure largement utilisée, mais convient dans le cas d'un ensemble de données équilibré ; par conséquent, nous avons également évalué nos méthodes proposées à l'aide de F1-Score qui combine à la fois le rappel et la précision en une seule métrique. Toutes les métriques d'évaluation que nous avons utilisées pour évaluer nos modèles sont calculées à partir de l'Eq. (1) à l'éq. (4).

Les problèmes croissants liés aux contrefaçons profondes ont incité les chercheurs à s'intéresser davantage à la criminalistique des médias ces dernières années. La technologie Deep Fake a diverses applications dans le secteur des médias, notamment la synchronisation labiale, l'échange de visages et le vieillissement des humains. Bien que les progrès de la DL et de la technologie de contrefaçon profonde aient diverses applications bénéfiques dans les affaires, le divertissement et l'industrie cinématographique, ils peuvent servir des objectifs nuisibles et contribuer à l'incapacité des gens à croire ce qui est vrai49,50. Par conséquent, trouver la différence entre le vrai et le faux est devenu vital à l'ère des médias sociaux. Trouver du contenu contrefait profond via l'œil humain est devenu plus difficile en raison des progrès des technologies de création de contrefaçon profonde. Par conséquent, un système robuste doit être développé pour classer avec précision ces faux médias sans intervention humaine.

Dans cette étude, nous proposons une architecture nouvelle et robuste pour détecter et classer les images deep fake à l'aide de techniques basées sur ML et DL. Le cadre proposé utilise une approche de prétraitement pour trouver ELA. ELA aide à déterminer si une partie de l'image a été modifiée en analysant l'image au niveau du pixel. Ces images sont ensuite fournies aux architectures CNN profondes (SqueezeNet, ResNet18 & GoogLeNet) pour extraire les fonctionnalités profondes. Les caractéristiques profondes sont ensuite classées via SVM et KNN. Les résultats obtenus à partir de la matrice de confusion de ResNet et des classificateurs ML sont présentés à la Fig. 9. Le vecteur de caractéristiques a atteint la précision la plus élevée de 89,5 % via KNN. Nous avons testé nos différents hyper-paramètres pour les deux classificateurs avant de tirer la conclusion. La méthode proposée a atteint une précision de 89,5 % via KNN sur la corrélation en tant que métrique de distance et un total de 881 voisins. SVM a atteint une précision de 88,6 % sur le noyau gaussien avec une échelle de 2,3.

Résultats obtenus à partir de la matrice de confusion de ResNet18.

L'optimisation des hyperparamètres est le processus de sélection du meilleur ensemble d'hyperparamètres pour les algorithmes automatisés. L'optimisation est cruciale pour les modèles car les performances du modèle dépendent du choix des hyperparamètres. Nous avons optimisé des paramètres tels que les fonctions du noyau, l'échelle, non. des voisins, des métriques de distance, etc., pour KNN et SVM. Les résultats obtenus à partir des meilleurs paramètres paramétriques pour différents vecteurs de caractéristiques sont mis en évidence en gras et présentés dans le tableau 1. Les matrices de confusion de (a) SVM et (b) KNN sont illustrées à la Fig. 10.

Matrice de confusion de ResNet18 via (a) SVM, (b) KNN.

De plus, le vecteur de caractéristiques obtenu à partir de GoogLeNet a obtenu la précision la plus élevée de 81 % via KNN sur Chebyshev en tant que métrique de distance avec un nombre total de 154 voisins. Le SVM a classé le vecteur de caractéristiques avec une précision de 80,9 % sur le noyau gaussien avec une échelle de noyau de 0,41. Les métriques testées et optimales (surlignées en gras) sont mentionnées dans le tableau 2. Les résultats détaillés d'autres métriques d'évaluation sont mentionnés dans la figure 11, tandis que la figure 12 montre ses matrices de confusion.

Les résultats de GoogLeNet en termes de ACC, PRE, REC et F1-Score.

Matrice de confusion obtenue de GoogLeNet.

SVM et KNN ont classé le vecteur de caractéristiques de SqueezeNet via 69,4 % et 68,8 %, respectivement. Les classificateurs ont été évalués sur différents paramètres, comme mentionné dans le tableau 3 et ont atteint des performances maximales sur les paramètres mis en évidence en gras. Les résultats en termes d'exactitude, de précision, de rappel et de score f1 sont mentionnés à la Fig. 13. La matrice de confusion est illustrée à la Fig. 14.

Résultats obtenus à partir des matrices de confusion de SqueezeNet.

Matrice de confusion obtenue à partir de SqueezeNet.

Cet article propose une nouvelle architecture pour détecter et classer les images fausses profondes via des techniques basées sur DL et ML. Le cadre proposé prétraite initialement l'image pour générer ELA, ce qui aide à déterminer si l'image a été manipulée numériquement. L'image ELA résultante est ensuite transmise aux architectures CNN telles que GoogLeNet, ResNet18 et ShuffleNet pour une extraction approfondie des fonctionnalités. La classification est ensuite effectuée via SVM et KNN. La méthode proposée a atteint la précision la plus élevée de 89,5 % via ResNet18 et KNN. Les réseaux résiduels sont très efficaces et légers et fonctionnent bien mieux que de nombreux autres classificateurs traditionnels en raison de leurs techniques robustes d'extraction et de classification des caractéristiques. La comparaison détaillée est présentée dans le tableau 4. Mittal et al.51 ont utilisé Alex Net pour la détection des deepfakes. Cependant, l'étude s'est soldée par de très mauvaises performances. Chandani et al.50 ont utilisé un cadre de réseau résiduel pour détecter de fausses images profondes. De même, MLP et Meso Inception 4 de Matern et al.15 et Afchar et al.26 ont obtenu respectivement plus de 80 % de précision. Bien qu'il s'agisse d'un CNN profond, les réseaux résiduels fonctionnent beaucoup plus rapidement en raison de leurs connexions raccourcies, ce qui contribue également à améliorer les performances du système. Par conséquent, la méthode proposée a bien mieux fonctionné sur les caractéristiques extraites de ResNet18.

Le deep fakeing est une nouvelle technique largement déployée pour répandre la désinformation et les canulars parmi la population. Même si tous les faux contenus profonds ne sont pas malveillants, ils doivent être trouvés car certains menacent le monde. L'objectif principal de cette recherche était de découvrir une méthode fiable pour identifier les images fausses profondes. De nombreux chercheurs ont travaillé sans relâche pour détecter les faux contenus profonds en utilisant une variété d'approches. Cependant, l'importance de cette étude réside dans son utilisation des méthodes basées sur DL et ML pour obtenir de bons résultats. Cette étude présente un nouveau cadre pour détecter et classer les fausses images profondes avec plus de précision que de nombreux systèmes existants. La méthode proposée utilise ELA pour prétraiter les images et détecter la manipulation au niveau du pixel. Les images générées par ELA sont ensuite fournies aux CNN pour l'extraction de caractéristiques. Ces caractéristiques profondes sont finalement classées à l'aide de SVM et KNN. La technique proposée a atteint la précision la plus élevée de 89,5 % via le vecteur de caractéristiques et le classificateur SVM de ResNet18. Les résultats prouvent la robustesse de la méthode proposée ; par conséquent, le système peut détecter de fausses images profondes en temps réel. Cependant, la méthode proposée est développée à l'aide de données basées sur des images. À l'avenir, nous étudierons plusieurs autres architectures CNN sur de faux jeux de données profonds basés sur la vidéo. Nous visons également à acquérir un ensemble de données factices profondes réelles auprès des membres de notre communauté et à utiliser des techniques ML et DL pour faire la distinction entre les images factices profondes et les images régulières afin de les rendre plus utiles et plus robustes. Il convient de mentionner que les travaux novateurs auront une influence considérable sur notre société. Grâce à cette technologie, les fausses victimes peuvent rapidement évaluer si les images sont réelles ou fausses. Les gens continueront à être prudents car notre travail leur permettra de reconnaître l'image profondément fausse.

Les ensembles de données utilisés et/ou analysés au cours de la présente étude sont disponibles auprès de l'auteur correspondant sur demande raisonnable.

Boylan, JF Will Deep-Fake Technology Destroy Democracy (The New York Times, 2018).

Google Scholar

Harwell, D. Scarlett Johansson sur les fausses vidéos de sexe générées par l'IA : "Rien ne peut empêcher quelqu'un de couper et coller mon image". J. Washington Post 31, 12 (2018).

Google Scholar

Masood, M. et al. Génération et détection de deepfakes : état de l'art, défis ouverts, contre-mesures et voie à suivre. Appl. Renseignement. 53, 1–53 (2022).

Google Scholar

Amin, R., Al Ghamdi, MA, Almotiri, SH et Alruily, M. Techniques de soins de santé par apprentissage en profondeur : problèmes, défis et opportunités. Accès IEEE 9, 98523–98541 (2021).

Article Google Scholar

Turek, MJ Defense Advanced Research Projects Agency. https://www.darpa.mil/program/media-forensics. Médecine légale des médias (MediFor). Vol. 10 (2019).

Schroepfer, MJF Créer un ensemble de données et un défi pour les deepfakes. Artef. Renseignement. 5, 263 (2019).

Google Scholar

Kibriya, H. et al. Un modèle de classification des tumeurs cérébrales nouveau et efficace utilisant la fusion de fonctionnalités profondes et les célèbres classificateurs d'apprentissage automatique. Vol. 2022 (2022).

Rafique, R., Nawaz, M., Kibriya, H. & Masood, M. Détection DeepFake à l'aide de l'analyse du niveau d'erreur et de l'apprentissage en profondeur. en 2021 4e Conférence internationale sur l'informatique et les sciences de l'information (ICCIS). 1–4 (IEEE, 2021).

Güera, D. & Delp, EJ Détection vidéo Deepfake à l'aide de réseaux de neurones récurrents. en 2018 15e Conférence internationale IEEE sur la vidéo avancée et la surveillance basée sur le signal (AVSS). 1–6 (IEEE, 2018).

Aleem, S. et al. Algorithmes d'apprentissage automatique pour la dépression : diagnostic, perspectives et directions de recherche. Électronique 11(7), 1111 (2022).

Article Google Scholar

Pavan Kumar, M. & Jayagopal, P. Réseaux antagonistes génératifs : une enquête sur les applications et les défis. Int. J. Multimed. Inf. 10(1), 1–24 (2021).

Article Google Scholar

Mansoor, M. et al. Une approche d'apprentissage automatique pour la détection non invasive des chutes à l'aide de Kinect. Multimed. Outils Appl. 81(11), 15491–15519 (2022).

Article Google Scholar

Thies, J., Zollhofer, M., Stamminger, M., Theobalt, C. & Nießner, M. Face2face : capture de visage en temps réel et reconstitution de vidéos RVB. dans Actes de la conférence IEEE sur la vision par ordinateur et la reconnaissance de formes. 2387–2395 (2016).

Shad, HS et al. Analyse comparative de la méthode de détection d'images Deepfake à l'aide d'un réseau de neurones convolutifs. Vol. 2021 (2021).

Matern, F., Riess, C. & Stamminger, M. Exploitation d'artefacts visuels pour exposer les deepfakes et les manipulations faciales. en 2019 IEEE Winter Applications of Computer Vision Workshops (WACVW). 83–92 (IEEE, 2019).

Agarwal, S., Farid, H., Gu, Y., He, M., Nagano, K. & Li, H. Protéger les dirigeants mondiaux contre les contrefaçons profondes. dans les ateliers CVPR. Vol. 1. 38 (2019).

Ciftci, UA, Demir, I. & Yin, L. Fakecatcher : Détection de vidéos de portraits synthétiques à l'aide de signaux biologiques (Google Patents, 2021).

Google Scholar

Yang, X., Li, Y. & Lyu, S. Exposer des faux profonds en utilisant des poses de tête incohérentes. dans ICASSP 2019–2019 IEEE International Conference on Acoustics, Speech and Signal Processing (ICASSP) 8261–8265. (IEEE, 2019).

Rossler, A., Cozzolino, D., Verdoliva, L., Riess, C., Thies, J. & Nießner, M. Faceforensics++ : Apprendre à détecter les images faciales manipulées. dans Actes de la conférence internationale IEEE/CVF sur la vision par ordinateur. 1–11 (2019).

McCloskey, S. & Albright, M. Détection d'images générées par le GAN à l'aide d'indices de saturation. en 2019 IEEE International Conference on Image Processing (ICIP). 4584–4588. (IEEE, 2019).

Abd Elaziz, M., Dahou, A., Orabi, DA, Alshathri, S., Soliman, EM & Ewees, AAJM Un cadre d'apprentissage multitâche hybride avec un optimiseur Fire Hawk pour la détection des fausses nouvelles en arabe. Vol. 11(2). 258 (2023).

Wodajo, D. & Atnafu, SJAPA Détection vidéo Deepfake à l'aide d'un transformateur de vision convolutif (2021).

Guarnera, L., Giudice, O. & Battiato, S. Détection de Deepfake par analyse de traces convolutives. dans Actes de la conférence IEEE/CVF sur les ateliers de vision par ordinateur et de reconnaissance de formes. 666–667 (2020).

Nguyen, HH, Fang, F., Yamagishi, J. & Echizen, I. Apprentissage multi-tâches pour la détection et la segmentation d'images et de vidéos faciales manipulées. en 2019 IEEE 10th International Conference on Biometrics Theory, Applications and Systems (BTAS). 1–8. (IEEE, 2019).

Khalil, SS, Youssef, SM & Saleh, SNJFI iCaps-Dfake : un modèle intégré basé sur une capsule pour la détection d'images et de vidéos Deepfake. Vol. 13(4). 93 (2021).

Afchar, D., Nozick, V., Yamagishi, J. & Echizen, I. Mesonet : un réseau compact de détection de falsification vidéo faciale. en 2018 IEEE International Workshop on Information Forensics and Security (WIFS). 1–7 (IEEE, 2018).

Wang, Y. & Dantcheva, A. Une vidéo vaut plus que 1000 mensonges. Comparaison des approches 3DCNN pour détecter les deepfakes. en 2020 15e Conférence internationale IEEE sur la reconnaissance automatique des visages et des gestes (FG 2020). 515–519. (IEEE, 2020).

Cozzolino, D., Thies, J., Rössler, A., Riess, C., Nießner, M. & Verdoliva, LJAPA Forensictransfer : Adaptation de domaine faiblement supervisée pour la détection de falsification (2018).

Huang, G., Liu, Z., Van Der Maaten, L. et Weinberger, KQ Réseaux convolutionnels densément connectés. dans Actes de la conférence IEEE sur la vision par ordinateur et la reconnaissance de formes. 4700–4708 (2017).

LeCun, Y., Bengio, Y. & Hinton, G. Apprentissage en profondeur. Nature 521(7553), 436–444 (2015).

Article ADS CAS PubMed Google Scholar

He, K., Zhang, X., Ren, S. et Sun, J. Apprentissage résiduel profond pour la reconnaissance d'images. dans Actes de la conférence IEEE sur la vision par ordinateur et la reconnaissance de formes. 770–778 (2016).

Nida, N., Irtaza, A. & Ilyas, N. Détection de visage forgée à l'aide d'ELA et de techniques d'apprentissage en profondeur. en 2021 Conférence internationale de Bhurban sur les sciences et technologies appliquées (IBCAST). 271–275 (IEEE, 2021).

Kibriya, H., Masood, M., Nawaz, M., Rafique, R. et Rehman, S. Classification multiclasse des tumeurs cérébrales à l'aide d'un réseau neuronal convolutif et d'une machine à vecteurs de support. en 2021 Conférence internationale sur l'informatique de l'Université Mohammad Ali Jinnah (MAJICC). 1–4 (IEEE, 2021).

Kibriya, H., Masood, M., Nawaz, M. et Nazir, TJMT Classification multiclasse des tumeurs cérébrales à l'aide d'une nouvelle architecture CNN. Multimed. Outil Appl. 81, 1–17 (2022).

Article Google Scholar

Salman, FM & Abu-Naser, SS Classification des visages humains réels et faux à l'aide de l'apprentissage en profondeur. IJAER 6(3), 1–14 (2022).

Google Scholar

Anaraki, AK, Ayati, M. & Kazemi, FJ Classification et classement des grades de tumeurs cérébrales basés sur l'imagerie par résonance magnétique via des réseaux neuronaux convolutifs et des algorithmes génétiques. Informations 39(1), 63–74 (2019).

Google Scholar

Albawi, S., Mohammed, TA & Al-Zawi, S. Compréhension d'un réseau neuronal convolutif. en 2017 Conférence internationale sur l'ingénierie et la technologie (ICET). 1–6 (IEEE, 2017).

O'Shea, K. & Nash, RJ Une introduction aux réseaux de neurones convolutifs (2015).

Szegedy, C. et al. Aller plus loin avec les circonvolutions. dans Actes de la conférence IEEE sur la vision par ordinateur et la reconnaissance de formes. 1–9 (2015).

Iandola, FN, Han, S., Moskewicz, MW, Ashraf, K., Dally, WJ & Keutzer, KJ SqueezeNet : Précision au niveau AlexNet avec 50 × moins de paramètres et une taille de modèle < 0,5 Mo (2016).

He, K., Zhang, X., Ren, S. et Sun, J. Apprentissage résiduel profond pour la reconnaissance d'images. dans Actes de la conférence IEEE sur la vision par ordinateur et la reconnaissance de formes, Las Vegas, États-Unis. 770–778 (2016).

Introduction aux réseaux résiduels. https://www.geeksforgeeks.org/introduction-to-residual-networks/ (2020).

Ali, L. et al. Évaluation des performances des techniques de détection et de localisation de fissures profondes basées sur le CNN pour les structures en béton. Capteurs 21(5), 1688 (2021).

Article ADS PubMed PubMed Central Google Scholar

Ramzan, F. et al. Une approche d'apprentissage en profondeur pour le diagnostic automatisé et la classification multi-classes des stades de la maladie d'Alzheimer à l'aide de l'IRMf à l'état de repos et des réseaux de neurones résiduels. J. Med. Syst. 44(2), 1–16 (2020).

Article MathSciNet Google Scholar

Mancini, M., Costante, G., Valigi, P. & Ciarfuglia, TA Estimation rapide et robuste de la profondeur monoculaire pour la détection d'obstacles avec des réseaux entièrement convolutifs. en 2016 Conférence internationale IEEE/RSJ sur les robots et systèmes intelligents (IROS). 4296–4303 (IEEE, 2016).

Kasim, N., Rahman, N., Ibrahim, Z. & Mangshor, NA Reconnaissance faciale des célébrités à l'aide de l'apprentissage en profondeur. Indonésien J. Electr. Ing. Calcul. Sci. 12(2), 476–481 (2018).

Article Google Scholar

Rezgui, D. & Lachiri, Z. Reconnaissance biométrique ECG utilisant une approche basée sur SVM. IEEJ Trans. Électr. Électron. Ing. 11, S94–S100 (2016).

Article Google Scholar

Laboratoire d'intelligence informatique et de photographie de YU. Détection de visage réel et faux (2019).

Tolosana, R., Romero-Tapiador, S., Fierrez, J. & Vera-Rodriguez, R. Évolution des deepfakes : analyse des régions faciales et des performances de détection des faux. dans la Conférence internationale sur la reconnaissance de formes. 442–456 (Springer, 2016).

Mehra, A. Deepfake Detection Using Capsule Networks with Long Short-Term Memory Networks (Université de Twente, 2020).

Google Scholar

Mittal, H., Saraswat, M., Bansal, JC et Nagar, A. Classification d'images de faux visages à l'aide d'une méthode améliorée de sélection de caractéristiques basée sur l'évolution d'inspiration quantique. en 2020 IEEE Symposium Series on Computational Intelligence (SSCI). 989–995 (IEEE, 2020).

Chandani, K. & Arora, M. Détection automatique de falsification faciale à l'aide de réseaux de neurones profonds. dans les progrès de l'ingénierie interdisciplinaire. 205-214 (Springer, 2021).

Lee, S., Tariq, S., Shin, Y. & Woo, SS Détection de manipulations d'images faciales artisanales et d'images faciales générées par GAN à l'aide de Shallow-FakeFaceNet. Appl. Calcul doux. 105, 107256 (2021).

Article Google Scholar

Télécharger les références

Cette recherche a été soutenue par le ministère de l'Éducation, de la Jeunesse et des Sports de la République tchèque dans le cadre de la subvention SP2023/007 menée par VSB - Université technique d'Ostrava.

Département d'informatique, Université d'ingénierie et de technologie, Taxila, Pakistan, 47050

Rimsha Rafique & Rashid Amin

Département de génie électrique, Université nationale de Chonnam, Gwangju, 61186, Corée du Sud

Rahma Gantassi

Département d'informatique, Université de Chakwal, Chakwal, 48800, Pakistan

Rachid Amin

Département de méthodes quantitatives et d'informatique économique, Faculté d'exploitation et d'économie des transports et des communications, Université de Zilina, 01026, Zilina, Slovaquie

Jaroslav Frnda

Département des télécommunications, Faculté de génie électrique et d'informatique, Université technique VSB d'Ostrava, 70800, Ostrava, République tchèque

Jaroslav Frnda

Faculté des sciences appliquées et de la technologie, Universiti Tun Hussein Onn Malaysia, KM1 Jalan Pagoh, 84600, Pagoh, Johor, Malaisie

Aïda Mustapha

Durma College of Science and Humanities, Université de Shaqra, Shaqra, 11961, Arabie saoudite

Asma Hassan Alshehri

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Vous pouvez également rechercher cet auteur dans PubMed Google Scholar

Tous les auteurs ont contribué de manière égale.

Correspondance avec Rashid Amin.

Les auteurs ne déclarent aucun intérêt concurrent.

Springer Nature reste neutre en ce qui concerne les revendications juridictionnelles dans les cartes publiées et les affiliations institutionnelles.

Libre accès Cet article est sous licence Creative Commons Attribution 4.0 International, qui autorise l'utilisation, le partage, l'adaptation, la distribution et la reproduction sur tout support ou format, à condition que vous accordiez le crédit approprié à l'auteur ou aux auteurs originaux et à la source, fournissez un lien vers la licence Creative Commons et indiquez si des modifications ont été apportées. Les images ou tout autre matériel de tiers dans cet article sont inclus dans la licence Creative Commons de l'article, sauf indication contraire dans une ligne de crédit au matériel. Si le matériel n'est pas inclus dans la licence Creative Commons de l'article et que votre utilisation prévue n'est pas autorisée par la réglementation légale ou dépasse l'utilisation autorisée, vous devrez obtenir l'autorisation directement du détenteur des droits d'auteur. Pour voir une copie de cette licence, visitez http://creativecommons.org/licenses/by/4.0/.

Réimpressions et autorisations

Rafique, R., Gantassi, R., Amin, R. et al. Détection et classification des faux en profondeur à l'aide de l'analyse du niveau d'erreur et de l'apprentissage en profondeur. Sci Rep 13, 7422 (2023). https://doi.org/10.1038/s41598-023-34629-3

Télécharger la citation

Reçu : 26 décembre 2022

Accepté : 04 mai 2023

Publié: 08 mai 2023

DOI : https://doi.org/10.1038/s41598-023-34629-3

Toute personne avec qui vous partagez le lien suivant pourra lire ce contenu :

Désolé, aucun lien partageable n'est actuellement disponible pour cet article.

Fourni par l'initiative de partage de contenu Springer Nature SharedIt

En soumettant un commentaire, vous acceptez de respecter nos conditions d'utilisation et nos directives communautaires. Si vous trouvez quelque chose d'abusif ou qui ne respecte pas nos conditions ou directives, veuillez le signaler comme inapproprié.