« Faception » start-up israélienne : reconnaissance faciale des terroristes et des pédophiles

By  |  1 Comment

Faception, une start-up israélienne, associe aux traits d’un visage des caractéristiques comportementales, et affirme pouvoir ainsi repérer les pédophiles et terroristes. Sa méthode est toutefois contestée.
Joueurs de poker professionnels, individus au QI élevé, mais aussi pédophiles et terroristes… Autant de catégories de personnes déterminées arbitrairement par Faception et auxquelles la start-up a respectivement associé des traits caractéristiques. Dépeinte par un article duWashington Post, elle a suscité de vives polémiques dans les médias internationaux. Grâce à une technologie fondée sur la reconnaissance faciale, il lui serait possible de reconnaître une quinzaine de catégories d’individus dans 80% des cas, à partir de l’analyse de flux vidéo ou de simples photographies. Faception se targue également d’avoir réussi à identifier les meilleurs joueurs d’un tournoi de poker, organisé par l’un de ses partenaires: sur les cinquante participants de la compétition, deux des quatre joueurs désignés se sont effectivement rendus en finale. Sur la base de ses résultats, elle aurait d’ores et déjà conclu un contrat avec un organisme de sécurité pour identifier de potentiels terroristes

A chaque catégorie d’individus, son visage type. Via faception.com
Ni le Washington Post, ni le site Web de l’entreprise ne fournissent néanmoins d’indications quant au contenu et aux méthodes d’élaboration des bases de données utilisées. Seul le postulat de base de l’entreprise est clairement évoqué par Shai Gilboa, son directeur général: «Notre personnalité est déterminée par notre ADN et se laisse deviner sur notre visage. Il faut y voir une forme de signal».
«Il s’agit là d’une version moderne et teintée de technologie de thèses du XIXe siècle», note Jean-Gabriel Ganascia, professeur au laboratoire d’informatique de Pierre-et-Marie-Curie, à Paris, et auteur de L’intelligence artificielle (Ed. Le Cavalier Bleu, 2007). «L’une d’entre elles, la physiognomonie partait du principe selon lequel l’observation physique d’une personne pouvait en dire long sur son caractère. Mais il a été montré que ce postulat conduisait à de nombreux abus et ne reposait sur aucun fondement sérieux».
Une idéologie derrière les algorithmes
En matière de traitement automatique des informations par les algorithmes, les biais restent encore nombreux. Ils résultent de la nécessaire intervention humaine dans leur élaboration. Une analyse menée par ProPublica révélait ainsi le 23 mai qu’un algorithme destiné à prédire les récidives, et très utilisé dans l’univers carcéral américain, avait tendance à léser les Noirs. Jugés davantage susceptibles de récidiver – alors que 44,9 % des Afro-américains classés dans cette catégorie n’avaient pas commis d’autres crimes, contre 23,5 % de personnes blanches – ils auraient également deux fois plus de chances d’être considérés comme potentiels récidivistes violents, sans que cela soit non plus suivi de faits.
La mise en garde vaut également pour Faception. Jean-Gabriel Ganascia soupçonne une confusion entre de simples corrélations émanant de ses fondateurs et de véritables liens de causalité entre traits du visage et comportements suspectés. Et regrette la tendance de certaines organisations à se laisser aller à une confiance aveugle en ces technologies.
« >

En plein essor, le secteur de la reconnaissance faciale voit les innovations se succéder. Il y a près d’un an, DeepFace (Facebook) annonçait un taux de reconnaissance correct des visages de 87,25%, presque équivalent à celui des humains et depuis dépassé par FaceNet (Google), avec ses 99,63%.

« >

Derrière les démonstrations techniques, se cachent d’importantes retombées financières et commerciales, bien perçues par les grandes enseignes. Si FaceFirst proposait dès fin 2015 ses services à Walmart pour identifier plus efficacement les voleurs, la SNCF teste actuellement des caméras «intelligentes» afin de repérer les mouvements anormaux, dans les gares RER de Saint-Denis et de la Bibliothèque François Mitterrand. Mattersight Corporation, basée à Chicago, devrait quant à elle permettre à ses entreprises clientes d’analyser les vidéos publiques d’un utilisateur sur Vine ou Youtube pour recueillir des données à son sujet et prédire son comportement.

source :
http://premium.lefigaro.fr/secteur/high-tech/2016/05/26/32001-20160526ARTFIG00009-une-start-up-pretend-pouvoir-identifier-les-terroristes-et-pedophiles-par-reconnaissance-faciale.php?a3=763-357764-890994&een=88172d4c0fc031f291f815e4129c243a&seen=6&m_i=nPTAZZYPbavHrKeXNB3MayLNTeulYesdyFtOmZEjcAcm4iAoQT7MVFADesFxdIVnYu019UlVt6HbADXztEB8ctk3kIn9lCTnns#xtor=EPR-300-[actualites]-20160526

happywheels

1 Comment

  1. roni dit :

    il n y a pas de profils type de terroristes.
    il y a des terroristes tres jeunes parfois 10 ans et d autres tres vieux plus de 70 ans.
    et il n y a pas de type de physique.
    cest jusque que la personne est conditionnee certains agissent comme des robots.

Publier un commentaire

Votre adresse e-mail ne sera pas publiée.