🟧 DĂ©libĂ©ration ARCOM du 9 octobre 2024 relative au rĂ©fĂ©rentiel dĂ©terminant les exigences techniques minimales applicables aux systĂšmes de vĂ©rification de l’Ăąge mis en place pour l’accĂšs Ă  certains services de communication au public en ligne et aux plateformes de partage de vidĂ©os qui mettent Ă  disposition du public des contenus pornographiques

Références

NOR : RCAC2428286X
Source : JORF n°0251 du 22 octobre 2024, texte n° 50

En-tĂȘte

L’AutoritĂ© de rĂ©gulation de la communication audiovisuelle et numĂ©rique,
Vu la directive 2015/1535/UE du Parlement europĂ©en et du Conseil du 9 septembre 2015 prĂ©voyant une procĂ©dure d’information dans le domaine des rĂ©glementations techniques et des rĂšgles relatives aux services de la sociĂ©tĂ© de l’information ;
Vu la loi n° 2004-575 du 21 juin 2004 modifiĂ©e pour la confiance dans l’Ă©conomie numĂ©rique, notamment ses articles 10 et 10-2 ;
Vu la notification n° 2024/0208/FR adressée à la Commission européenne le 15 avril 2024 et ses observations en date du 15 juillet 2024 ;
Vu la dĂ©libĂ©ration n° 2024-067 du 26 septembre 2024 de la Commission nationale de l’informatique et des libertĂ©s portant avis sur un projet de rĂ©fĂ©rentiel de l’AutoritĂ© de rĂ©gulation de la communication audiovisuelle et numĂ©rique relatif aux systĂšmes de vĂ©rification de l’Ăąge mis en place pour l’accĂšs Ă  certains services permettant l’accĂšs Ă  des contenus pornographiques ;
Vu les observations formulées lors de la consultation publique réalisée du 11 avril au 11 mai 2024 ;

AprÚs en avoir délibéré,
DĂ©cide :

Article 1

Le référentiel figurant en annexe de la présente délibération est adopté.

Article 2

La présente délibération sera publiée au Journal officiel de la République française.

Annexe

RÉFÉRENTIEL DÉTERMINANT LES EXIGENCES TECHNIQUES MINIMALES APPLICABLES AUX SYSTÈMES DE VÉRIFICATION DE L’ÂGE MIS EN PLACE POUR L’ACCÈS À CERTAINS SERVICES DE COMMUNICATION AU PUBLIC EN LIGNE ET AUX PLATEFORMES DE PARTAGE DE VIDÉOS QUI METTENT À DISPOSITION DU PUBLIC DES CONTENUS PORNOGRAPHIQUES

Introduction
La responsabilité des services visés diffusant des contenus à caractÚre pornographique

1. Avec la dĂ©mocratisation des terminaux mobiles permettant d’accĂ©der Ă  internet auprĂšs des enfants, l’exposition des mineurs aux contenus pornographiques sur internet est en forte progression.
Selon une Ă©tude rĂ©alisĂ©e par l’AutoritĂ© de rĂ©gulation de la communication audiovisuelle et numĂ©rique (ARCOM) sur la base de donnĂ©es fournies par MĂ©diamĂ©trie, 2,3 millions de mineurs frĂ©quentent chaque mois des sites Ă  caractĂšre pornographique, ce nombre Ă©tant en croissance rapide ces derniĂšres annĂ©es et corrĂ©lĂ© Ă  la dĂ©mocratisation des terminaux mobiles auprĂšs des enfants. La part des mineurs frĂ©quentant des sites « adultes » a progressĂ© de 9 points en 5 ans, de 19 % fin 2017 Ă  28 % fin 2022. Chaque mois en 2022, plus de la moitiĂ© des garçons de 12 ans et plus s’est rendue sur de tels sites, pourcentage qui monte Ă  deux tiers pour les garçons ĂągĂ©s de 16 ans et 17 ans. En moyenne, 12 % de l’audience des sites adultes est rĂ©alisĂ©e par les mineurs (1).
Depuis le dĂ©but des annĂ©es 2000 (2), des travaux sur les consĂ©quences de l’exposition prĂ©coce Ă  la pornographie montrent qu’une exposition des plus jeunes Ă  des contenus pornographiques peut avoir des consĂ©quences graves sur leur Ă©panouissement mental et la reprĂ©sentation qu’ils se font de la sexualitĂ© et des rapports entre individus, au dĂ©triment de leur dĂ©veloppement personnel et d’une plus grande Ă©galitĂ© dans les rapports entre les genres (3).
2. Depuis le 1er mars 1994, en application des dispositions de l’article 227-24 du code pĂ©nal, introduit par la loi n° 92-684 du 22 juillet 1992, il est interdit d’exposer des mineurs Ă  un contenu pornographique.
La rĂ©daction de cet article a Ă©tĂ© modifiĂ©e afin d’en prĂ©ciser le champ d’application, mais aussi les modalitĂ©s d’apprĂ©ciation lorsqu’il s’agit de constater l’infraction sur internet. Consacrant une jurisprudence constante, l’article 227-24 prĂ©cise, depuis 2020, qu’une simple dĂ©claration d’Ăąge ne suffit pas Ă  prouver la majoritĂ© (4). La rĂ©daction actuellement en vigueur est ainsi la suivante :
« Le fait soit de fabriquer, de transporter, de diffuser par quelque moyen que ce soit et quel qu’en soit le support un message Ă  caractĂšre violent, incitant au terrorisme, pornographique, y compris des images pornographiques impliquant un ou plusieurs animaux, ou de nature Ă  porter gravement atteinte Ă  la dignitĂ© humaine ou Ă  inciter des mineurs Ă  se livrer Ă  des jeux les mettant physiquement en danger, soit de faire commerce d’un tel message, est puni de trois ans d’emprisonnement et de 75 000 euros d’amende lorsque ce message est susceptible d’ĂȘtre vu ou perçu par un mineur.
« Lorsque les infractions prévues au présent article sont soumises par la voie de la presse écrite ou audiovisuelle ou de la communication au public en ligne, les dispositions particuliÚres des lois qui régissent ces matiÚres sont applicables en ce qui concerne la détermination des personnes responsables.
« Les infractions prĂ©vues au prĂ©sent article sont constituĂ©es y compris si l’accĂšs d’un mineur aux messages mentionnĂ©s au premier alinĂ©a rĂ©sulte d’une simple dĂ©claration de celui-ci indiquant qu’il est ĂągĂ© d’au moins dix-huit ans. »
Le lĂ©gislateur a instaurĂ©, par la loi n° 2020-936 du 30 juillet 2020 visant Ă  protĂ©ger les victimes de violences conjugales, une procĂ©dure spĂ©ciale faisant intervenir l’ARCOM dans l’objectif d’assurer la pleine effectivitĂ© de ces dispositions sur les services de communication au public en ligne mettant des contenus pornographiques Ă  disposition du public sur internet.
Cette loi a ainsi confiĂ© au prĂ©sident de l’ARCOM une prĂ©rogative de mise en demeure de l’Ă©diteur d’un site de se conformer au code pĂ©nal et, si cette mise en demeure n’est pas suivie d’effet, de demander au juge judiciaire d’ordonner aux fournisseurs d’accĂšs Ă  internet (FAI) d’empĂȘcher l’accĂšs Ă  ce site.
3. Sur le fondement de ces dispositions, l’AutoritĂ© a prononcĂ© treize mises en demeure. Elle a par ailleurs saisi, le 8 mars 2022, le prĂ©sident du tribunal judiciaire de Paris afin qu’il ordonne aux FAI le blocage de cinq de ces services mis en demeure. Cette procĂ©dure est toujours en cours Ă  la date de publication du prĂ©sent rĂ©fĂ©rentiel.

L’Ă©volution du rĂŽle de l’ARCOM dans le cadre de la loi visant Ă  sĂ©curiser et rĂ©guler l’espace numĂ©rique

La loi n° 2024-449 du 21 mai 2024 visant Ă  sĂ©curiser et Ă  rĂ©guler l’espace numĂ©rique (SREN) a fait Ă©voluer le dispositif prĂ©vu par la loi du 30 juillet 2020.
L’article 10 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’Ă©conomie numĂ©rique (LCEN) prĂ©voit que l’ARCOM « Ă©tablit et publie [
], aprĂšs avis de la Commission nationale de l’informatique et des libertĂ©s, un rĂ©fĂ©rentiel dĂ©terminant les exigences techniques minimales applicables aux systĂšmes de vĂ©rification de l’Ăąge. Ces exigences portent sur la fiabilitĂ© du contrĂŽle de l’Ăąge des utilisateurs et le respect de leur vie privĂ©e. » Le champ d’application du dispositif concerne « les contenus pornographiques mis Ă  la disposition du public par un Ă©diteur de service de communication au public en ligne, sous sa responsabilitĂ© Ă©ditoriale, ou fournis par un service de plateforme de partage de vidĂ©os au sens de l’article 2 de la loi n° 86-1067 du 30 septembre 1986 relative Ă  la libertĂ© de communication » (ci-aprĂšs « les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique » ou « les services visĂ©s »). L’ARCOM peut, le cas Ă©chĂ©ant aprĂšs avis de la prĂ©sidente de la CNIL, mettre en demeure un de ces services de se conformer Ă  ce rĂ©fĂ©rentiel et, en cas de persistance du manquement, aprĂšs avis de la CNIL, prononcer une sanction pĂ©cuniaire Ă  son Ă©gard dans le respect de la procĂ©dure prĂ©vue Ă  l’article 42-7 de la loi n° 86-1067 du 30 septembre 1986.
Les nouvelles compĂ©tences confiĂ©es Ă  l’ARCOM par la loi SREN complĂštent les pouvoirs reconnus par ailleurs au juge judiciaire, qui peut ĂȘtre saisi directement aux fins de blocage d’un site ne respectant pas les dispositions de l’article 227-24 du code pĂ©nal sur le fondement par exemple de l’article 6-3 de la LCEN.
En outre, la protection des mineurs contre l’accĂšs Ă  des contenus pornographiques s’inscrit dans un cadre plus gĂ©nĂ©ral qui rĂ©git la protection des enfants, notamment la Convention des Nations unies relative aux droits des enfants du 20 novembre 1989 et son observation gĂ©nĂ©rale n° 25 de 2021 sur les droits de l’enfant en relation avec l’environnement numĂ©rique (5), ainsi que l’article 24 de la Charte des droits fondamentaux de l’Union europĂ©enne du 7 dĂ©cembre 2000, qui prĂ©voit que l’« intĂ©rĂȘt supĂ©rieur de l’enfant doit ĂȘtre une considĂ©ration primordiale ».

Les travaux dĂ©jĂ  engagĂ©s sur la vĂ©rification de l’Ăąge

Le prĂ©sent document s’inscrit dans le contexte de travaux engagĂ©s ces derniĂšres annĂ©es par la CNIL sur les solutions de vĂ©rification d’Ăąge permettant de concilier protection des mineurs et respect de la vie privĂ©e.
La CNIL a tout d’abord rendu un avis en juin 2021 sur le projet de dĂ©cret pris pour l’application de la loi de 2020, relatif aux modalitĂ©s de mise en Ɠuvre des mesures visant Ă  protĂ©ger les mineurs contre l’accĂšs Ă  des services de communication au public en ligne diffusant du contenu pornographique (6). Pour Ă©viter que l’orientation sexuelle – rĂ©elle ou supposĂ©e – des personnes puisse ĂȘtre dĂ©duite des contenus visualisĂ©s et directement rattachĂ©e Ă  leur identitĂ©, la CNIL prĂ©conisait dĂšs cet avis de passer par des tiers de confiance et formulait plusieurs recommandations (7) qui comprenaient une partie relative Ă  la vĂ©rification de l’Ăąge. Ces publications ont Ă©tĂ© renforcĂ©es par une communication publiĂ©e en juillet 2022 intitulĂ©e « VĂ©rification de l’Ăąge en ligne : trouver l’Ă©quilibre entre protection des mineurs et respect de la vie privĂ©e » (8) et la mise en ligne d’un dĂ©monstrateur d’un mĂ©canisme de vĂ©rification de l’Ăąge respectueux de la vie privĂ©e des utilisateurs (9), en coopĂ©ration avec le PEReN et M. Olivier Blazy, professeur Ă  l’Ecole polytechnique.
La CNIL a dĂ©jĂ  eu l’opportunitĂ© de rappeler que « Contrairement Ă  ce qui est parfois dit, le RGPD (10) n’est pas incompatible avec un contrĂŽle de l’Ăąge pour l’accĂšs aux sites pornographiques, qui est prĂ©vu par la loi. » (11)
Comme la CNIL, l’ARCOM a Ă©galement rendu un avis sur le projet de dĂ©cret d’application de l’article 23 de la loi du 30 juillet 2020 (12).
C’est dans ce contexte que l’ARCOM et la CNIL, avec le concours du PEReN, ont engagĂ© dĂ©but 2023 des Ă©changes techniques conjoints avec les acteurs de la vĂ©rification de l’Ăąge. Ces Ă©changes ont Ă©tĂ© enrichis par les retours d’expĂ©rience dont l’ARCOM a pu bĂ©nĂ©ficier de la part de certains de ses homologues Ă©trangers qui sont Ă©galement confrontĂ©s aux enjeux de protection des mineurs et de la vie privĂ©e attachĂ©s au contrĂŽle de l’accĂšs aux contenus pornographiques.
Le prĂ©sent rĂ©fĂ©rentiel a Ă©tĂ© adoptĂ© Ă  la suite d’une consultation publique, ouverte du 11 avril au 13 mai, de sa notification Ă  la Commission europĂ©enne, le 15 avril, au titre de la directive 2015/1535 du 9 septembre 2015 prĂ©voyant une procĂ©dure d’information dans le domaine des rĂ©glementations techniques et des rĂšgles relatives aux services de la sociĂ©tĂ© de l’information et de la dĂ©libĂ©ration n° 2024-067 du 26 septembre 2024 de la CNIL portant avis sur le projet de rĂ©fĂ©rentiel.

Présentation du référentiel
Accompagner le secteur dans la mise en place de solutions de vĂ©rification de l’Ăąge

Conformément aux dispositions de la loi, le référentiel précise les exigences techniques attendues.
L’objet de ce rĂ©fĂ©rentiel n’est pas de certifier des solutions techniques.
Les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique demeureront libres de choisir les solutions de protection des mineurs de leur choix, dĂšs lors qu’elles respectent les exigences techniques du rĂ©fĂ©rentiel.
L’absence de systĂšme de vĂ©rification de l’Ăąge, tout comme les systĂšmes de vĂ©rification de l’Ăąge qui ne seraient pas fiables ou offriraient un degrĂ© de protection de la vie privĂ©e infĂ©rieur au niveau d’exigence Ă©tabli par le prĂ©sent rĂ©fĂ©rentiel, ne seraient pas admissibles.

Actualisations du rĂ©fĂ©rentiel et Ă©tat de l’art

Le rĂ©fĂ©rentiel pourra ĂȘtre revu et actualisĂ© afin de tenir compte de l’Ă©tat de l’art. La loi SREN dispose Ă  cet Ă©gard que le « rĂ©fĂ©rentiel est actualisĂ© en tant que de besoin dans les mĂȘmes conditions ».
Il est en effet souhaitable que le secteur adopte des solutions de vĂ©rification d’Ăąge correspondant Ă  l’Ă©tat de l’art et aux standards europĂ©ens et internationaux (notamment tout standard europĂ©en qui Ă©mergerait Ă  court terme), et compatibles avec les pratiques du secteur, s’agissant particuliĂšrement des protocoles techniques existants.
C’est dans cet esprit que les autoritĂ©s françaises ont indiquĂ©, en rĂ©ponse Ă  une demande d’information de la Commission europĂ©enne, dans le cadre de la procĂ©dure de notification prĂ©vue par la directive 2015/1535 du 9 septembre 2015 prĂ©voyant une procĂ©dure d’information dans le domaine des rĂ©glementations techniques et des rĂšgles relatives aux services de la sociĂ©tĂ© de l’information (texte codifiĂ©) que :
« S’agissant de l’avenir, elles prennent l’engagement de rĂ©viser en tout ou partie leur dispositif juridique interne lorsqu’une base lĂ©gale suffisamment prĂ©cise au niveau de l’Union permettra d’imposer Ă  tout ou partie des plateformes concernĂ©es par l’accĂšs Ă  des contenus pornographiques un dispositif effectif de vĂ©rification de l’Ăąge.
« Dans ces conditions, elles envisagent le [rĂ©fĂ©rentiel] comme une solution transitoire, dans l’attente d’une solution europĂ©enne efficace. »

Structure du rĂ©fĂ©rentiel et calendrier de mise en Ɠuvre

La premiĂšre partie du rĂ©fĂ©rentiel Ă©nonce des considĂ©rations gĂ©nĂ©rales sur la fiabilitĂ© des systĂšmes de vĂ©rification de l’Ăąge dĂ©coulant de la loi. Outre la nĂ©cessitĂ© de garantir une protection des mineurs par dĂ©faut, c’est-Ă -dire avant mĂȘme l’accĂšs au service, il s’agit de rappeler les conditions d’efficacitĂ© des systĂšmes de vĂ©rification de l’Ăąge en ligne, tout en Ă©vitant leur contournement.
La deuxiĂšme partie porte spĂ©cifiquement sur la protection de la vie privĂ©e par les systĂšmes de vĂ©rification de l’Ăąge dĂ©ployĂ©s pour contrĂŽler l’accĂšs Ă  des contenus Ă  caractĂšre pornographique. Les sites peuvent proposer des systĂšmes de vĂ©rification de l’Ăąge prĂ©sentant des niveaux de protection de la vie privĂ©e diffĂ©rents, sous rĂ©serve d’informer les utilisateurs du niveau attachĂ© Ă  chaque systĂšme.
Dans ce cadre, le rĂ©fĂ©rentiel Ă©tablit des objectifs minimaux applicables Ă  tous les systĂšmes de vĂ©rification de l’Ăąge, ainsi que des objectifs spĂ©cifiques renforcĂ©s pour les systĂšmes les plus respectueux de la vie privĂ©e dits en « double anonymat ». Les utilisateurs devront se voir proposer au moins un dispositif de vĂ©rification de l’Ăąge conforme aux standards de protection de la vie privĂ©e en « double anonymat ».
Cette deuxiÚme partie comprend aussi des bonnes pratiques en matiÚre de protection des données, considérées comme souhaitables.
Par ailleurs, les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique pourront mettre en Ɠuvre, Ă  titre temporaire, des solutions de gĂ©nĂ©ration de preuve d’Ăąge fondĂ©es sur la fourniture d’une carte bancaire, par dĂ©rogation aux conditions prĂ©vues par les premiĂšre et deuxiĂšme parties, mais sous rĂ©serve du strict respect de certaines conditions cumulatives Ă©noncĂ©es dans la troisiĂšme partie du prĂ©sent document.
Enfin, la quatriĂšme et derniĂšre partie fixe les grands principes susceptibles de guider les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique amenĂ©s Ă  procĂ©der Ă  la rĂ©alisation d’un audit de leurs systĂšmes de vĂ©rification de l’Ăąge. Il est notamment question de prĂ©ciser l’objet de tels audits, les conditions de leur rĂ©alisation et les exigences applicables aux tiers auditeurs.

PREMIÈRE PARTIE : CONSIDÉRATIONS GÉNÉRALES RELATIVES À LA FIABILITÉ DES SYSTÈMES DE VÉRIFICATION DE L’ÂGE

Le prĂ©sent rĂ©fĂ©rentiel vise Ă  assurer la protection des mineurs par dĂ©faut, dĂšs l’affichage de la premiĂšre page d’un service de communication au public en ligne permettant la diffusion de contenus Ă  caractĂšre pornographique.
La protection des mineurs implique en effet de prĂ©venir toute exposition de ces derniers Ă  des contenus pornographiques dĂšs l’accĂšs aux services de communication au public en ligne mettant ces contenus Ă  disposition.
A cet Ă©gard, l’article 1er de la loi SREN prĂ©voit explicitement que les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique sont tenus d’afficher un Ă©cran ne comportant aucun contenu Ă  caractĂšre pornographique « tant que l’Ăąge de l’utilisateur n’a pas Ă©tĂ© vĂ©rifiĂ© ».
Par ailleurs, il dĂ©coule de la loi SREN que les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique doivent garantir qu’aucun utilisateur n’accĂšde Ă  un contenu Ă  caractĂšre pornographique tant qu’il n’a pas prouvĂ© sa majoritĂ©.
Cette protection des mineurs par dĂ©faut peut ĂȘtre assurĂ©e, par exemple, par le biais d’un floutage complet de la page d’accueil du service. Les Ă©diteurs peuvent aussi signaler le caractĂšre pornographique de leur service. Pour ce faire, ils peuvent s’appuyer sur un mĂ©canisme d’auto-dĂ©claration tel que le label RTA (13) Ă  mettre en place au niveau de chaque page de leurs sites, permettant aux systĂšmes de contrĂŽle parental d’avoir connaissance de l’Ăąge minimum requis pour accĂ©der aux contenus prĂ©sents sur le site, par l’intermĂ©diaire d’en-tĂȘtes de rĂ©ponse (ou « headers » [14]).
Pour satisfaire la loi, les systĂšmes de vĂ©rification de l’Ăąge (en l’occurrence de la majoritĂ©) mis en place par les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique doivent permettre de distinguer les utilisateurs mineurs des utilisateurs majeurs. Il est attendu que les solutions Ă©voluent avec l’amĂ©lioration des techniques et la mise sur le marchĂ© de nouveaux systĂšmes de vĂ©rification de l’Ăąge, notamment tout standard europĂ©en qui Ă©mergerait Ă  court terme.
Lorsque la solution technique mise en place par les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique repose sur une estimation de l’Ăąge de l’utilisateur, le respect de la loi implique qu’elle doit ĂȘtre paramĂ©trĂ©e de sorte Ă  exclure le risque qu’un utilisateur mineur soit considĂ©rĂ© comme majeur (« faux positifs »).
Pour respecter la loi, les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique doivent fournir leurs meilleurs efforts, conformĂ©ment aux normes Ă©levĂ©es du secteur en matiĂšre de diligence professionnelle, pour limiter les possibilitĂ©s de contournement des solutions techniques qu’ils mettent en place. Les systĂšmes de vĂ©rification de l’Ăąge ne doivent pas permettre le partage de preuves d’Ăąge avec d’autres personnes afin de limiter les risques de fraude. Ainsi, le systĂšme doit ĂȘtre robuste face aux risques d’attaques, tels que l’hypertrucage (deepfakes), l’usurpation d’adresses internet (spoofing), etc.
Par exemple, s’agissant des solutions reposant sur une estimation de l’Ăąge par analyse des traits du visage, les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique devront s’assurer que les solutions comportent un mĂ©canisme de reconnaissance du vivant, dont il est attendu que l’efficacitĂ© soit conforme Ă  l’Ă©tat de l’art. La dĂ©tection doit ĂȘtre effectuĂ©e au moyen d’une qualitĂ© d’image suffisante et permettre d’exclure tout procĂ©dĂ© de dĂ©tournement susceptible d’ĂȘtre utilisĂ© par des mineurs afin d’apparaĂźtre artificiellement comme majeur, notamment par le recours Ă  des photos, vidĂ©os enregistrĂ©es ou encore des masques. Enfin, s’agissant des solutions techniques de gĂ©nĂ©ration de preuve d’Ăąge fondĂ©es sur la prĂ©sentation d’une piĂšce d’identitĂ© physique, il est attendu que les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique s’assurent que les solutions techniques qu’ils mettent en place permettent de vĂ©rifier : (i) que le document est rĂ©el, et qu’il ne s’agit pas d’une simple copie ; (ii) que l’utilisateur est bien le dĂ©tenteur du document d’identitĂ© renseignĂ©. Cette vĂ©rification peut notamment s’effectuer par le biais d’une reconnaissance des traits du visage impliquant un mĂ©canisme de dĂ©tection du vivant, dans les conditions Ă©noncĂ©es supra.
Afin d’empĂȘcher l’exposition des mineurs aux contenus Ă  caractĂšre pornographique en ligne, il est attendu que la vĂ©rification de l’Ăąge ait lieu Ă  chaque consultation d’un service. Ainsi, l’interruption de cette consultation doit dĂ©clencher une nouvelle vĂ©rification de l’Ăąge en cas de souhait d’un nouvel accĂšs Ă  un contenu pornographique. Ceci est sans prĂ©judice de la possibilitĂ©, pour l’utilisateur, de recourir Ă  une preuve d’Ăąge rĂ©utilisable ou regĂ©nĂ©rĂ©e par lui-mĂȘme, sous rĂ©serve de la prĂ©sence d’un second facteur d’authentification. Celle-ci peut ĂȘtre effectuĂ©e en liant l’usage de la preuve rĂ©utilisable au terminal de la personne concernĂ©e, comme cela est le cas s’agissant des portefeuilles numĂ©riques (dits « wallets »).
Par ailleurs, le systĂšme de vĂ©rification ne doit pas permettre le partage de cette preuve avec une autre personne ou un autre service. Dans l’hypothĂšse d’un terminal de consultation partagĂ© entre une personne majeure et une personne mineure, il convient d’empĂȘcher que la durĂ©e de validitĂ© de la vĂ©rification de l’Ăąge permette de consulter des contenus pornographiques sans nouvelle vĂ©rification. Il peut ĂȘtre considĂ©rĂ© que la validitĂ© d’une vĂ©rification d’Ăąge doit donc s’interrompre lorsque l’utilisateur quitte le service, c’est-Ă -dire lorsque la session prend fin, lorsque l’utilisateur quitte son navigateur ou lorsque le systĂšme d’exploitation entre en veille et, en tout Ă©tat de cause, aprĂšs une pĂ©riode d’une heure d’inactivitĂ©.
Pour Ă©viter que la rĂ©utilisation de compte utilisateur ne conduise des mineurs Ă  accĂ©der Ă  des contenus pornographiques, il est attendu que, la preuve d’Ăąge ne puisse pas ĂȘtre conservĂ©e dans un compte utilisateur sur le service visĂ©. En toute hypothĂšse, il rĂ©sulte de la loi que l’obligation de vĂ©rification de l’Ăąge s’applique Ă  chaque accĂšs, avec ou sans compte utilisateur.
Pour assurer la protection des mineurs et le respect de la loi, il est attendu que les solutions dĂ©ployĂ©es par les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique soient efficaces pour tous les groupes de population et n’aient donc pas pour effet d’en discriminer certains, notamment selon les motifs Ă©noncĂ©s Ă  l’article 21 de la Charte des droits fondamentaux de l’Union europĂ©enne. Ainsi, l’efficacitĂ© de la solution technique de vĂ©rification d’Ăąge sera la mĂȘme quelles que soient les caractĂ©ristiques physiques de l’utilisateur. S’agissant des systĂšmes de gĂ©nĂ©ration de preuve d’Ăąge basĂ©s sur l’apprentissage machine (dit aussi « machine learning ») ou des modĂšles statistiques, les prestataires peuvent, par exemple, tester leur solution sur des bases de donnĂ©es diversifiĂ©es afin de s’assurer du respect de cette exigence. En effet, il est essentiel que les systĂšmes de contrĂŽle de l’Ăąge limitent les biais discriminatoires, qui gĂ©nĂšrent en outre des erreurs susceptibles de remettre en cause tant leur fiabilitĂ© que leur acceptabilitĂ©.
Les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique sont invitĂ©s Ă  intĂ©grer les Ă©ventuels biais discriminatoires, dĂ©clinĂ©s en fonction des motifs de discrimination pertinents, dans l’Ă©valuation de la performance de leur systĂšme de vĂ©rification de l’Ăąge, mais aussi au titre des audits auxquels ils procĂ©deraient (v. infra).

DEUXIÈME PARTIE : PROTECTION DE LA VIE PRIVÉE

Le prĂ©sent rĂ©fĂ©rentiel vise Ă©galement Ă  assurer la protection de la vie privĂ©e des utilisateurs des systĂšmes de vĂ©rification de l’Ăąge. En effet, ces systĂšmes peuvent prĂ©senter des risques Ă©levĂ©s en matiĂšre de sĂ©curitĂ© des donnĂ©es Ă  caractĂšre personnel, la vĂ©rification de l’Ăąge s’apparentant Ă  une vĂ©rification d’identitĂ©, et pouvant Ă  ce titre nĂ©cessiter la collecte de donnĂ©es sensibles ou de documents d’identitĂ©.
Les acteurs impliquĂ©s dans les systĂšmes de vĂ©rification de l’Ăąge doivent donc ĂȘtre particuliĂšrement attentifs Ă  la protection de la vie privĂ©e de leurs utilisateurs et Ă  la sĂ©curitĂ© des systĂšmes d’information concernĂ©s, principes au respect desquels la CNIL est chargĂ©e de veiller en application notamment du rĂšglement gĂ©nĂ©ral sur la protection des donnĂ©es (RGPD).

Principes de protection de la vie privée

En pratique, les systĂšmes de vĂ©rification de l’Ăąge dans leur ensemble doivent ĂȘtre respectueux de la lĂ©gislation en vigueur concernant la protection des donnĂ©es Ă  caractĂšre personnel et la vie privĂ©e, dont les principes de minimisation et de protection des donnĂ©es dĂšs la conception et par dĂ©faut (articles 5 et 25 du RGPD).
Les prestataires de tels systĂšmes doivent prĂȘter notamment attention aux principes suivants :

– exactitude, proportionnalitĂ© et minimisation des donnĂ©es collectĂ©es ;
– information des utilisateurs concise, transparente, comprĂ©hensible et facilement accessible ;
– durĂ©es de conservation des donnĂ©es appropriĂ©es ;
– possibilitĂ© pour les personnes d’exercer leurs droits, Ă  savoir le droit d’accĂšs, le droit d’opposition, le droit de rectification, le droit Ă  la limitation du traitement, le droit Ă  l’effacement, le droit Ă  la portabilitĂ© ;
– sĂ©curitĂ© Ă  l’Ă©tat de l’art pour les systĂšmes d’information utilisĂ©s dans le cadre de traitements de donnĂ©es Ă  caractĂšre personnel.

Mise en Ɠuvre d’un systĂšme de vĂ©rification de l’Ăąge respectueux de la vie privĂ©e par dĂ©faut et par conception

En 2022, la CNIL a publiĂ© un dĂ©monstrateur de mĂ©canisme de vĂ©rification de l’Ăąge respectueux de la vie privĂ©e pour la transmission d’un attribut d’identitĂ© (en l’occurrence une preuve d’Ăąge) (15), (16). Le mĂ©canisme proposĂ© permet notamment de garantir l’Ă©tanchĂ©itĂ© entre les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique ayant l’obligation de vĂ©rifier l’Ăąge de leurs utilisateurs et les tiers Ă©metteurs d’attributs d’Ăąge.
Ce mĂ©canisme, connu depuis sous l’appellation de « double anonymat » ou « double confidentialitĂ© », a fait l’objet de dĂ©veloppements et d’expĂ©rimentations par diffĂ©rents acteurs publics et privĂ©s, permettant de confirmer sa faisabilitĂ© technique et sa capacitĂ© Ă  rĂ©pondre au besoin de protection de la vie privĂ©e inhĂ©rent aux mĂ©canismes de vĂ©rification de l’Ăąge en ligne. Il correspond par ailleurs aux objectifs fixĂ©s en gĂ©nĂ©ral aux systĂšmes d’identitĂ© numĂ©rique incluant une gestion des attributs. Toutefois, ce mĂ©canisme, bien qu’il soit dĂ©signĂ© par « double anonymat » dans le prĂ©sent document, n’est pas « anonyme » au sens du RGPD, mais garantit cependant une grande confidentialitĂ©.
Les services de communication au public en ligne qui mettent Ă  disposition des contenus pornographiques devront proposer Ă  leurs utilisateurs au moins un dispositif de vĂ©rification de l’Ăąge conforme aux standards de protection de la vie privĂ©e en « double anonymat », en s’assurant que ce systĂšme puisse ĂȘtre utilisĂ© par une large majoritĂ© de ses utilisateurs.
Cette exigence entrera en vigueur Ă  la fin de la pĂ©riode transitoire prĂ©vue dans la troisiĂšme partie du prĂ©sent rĂ©fĂ©rentiel, fixĂ©e Ă  six mois aprĂšs sa publication, sans prĂ©judice des exigences minimales Ă©noncĂ©es infra. Ainsi, jusqu’Ă  cette date, les systĂšmes de vĂ©rification de l’Ăąge devront respecter le socle minimum d’exigences prĂ©vues ci-dessous afin de garantir un niveau acceptable de protection des donnĂ©es Ă  caractĂšre personnel de leurs utilisateurs.
Les sections suivantes précisent :

– les exigences applicables Ă  tous les systĂšmes de vĂ©rification de l’Ăąge visĂ©s par le prĂ©sent rĂ©fĂ©rentiel ;
– les objectifs spĂ©cifiques pour les systĂšmes les plus respectueux de la vie privĂ©e, dits en « double anonymat » ;
– les obligations de transparence visant Ă  informer les utilisateurs du niveau de protection de la vie privĂ©e attachĂ©es aux dispositifs proposĂ©s sur les services ;
– ainsi que des bonnes pratiques Ă©noncĂ©es comme souhaitables mais non exigĂ©es Ă  ce jour.

Exigences minimales applicables Ă  tous les systĂšmes de vĂ©rification de l’Ăąge

Un socle minimum d’exigences est applicable Ă  tous les systĂšmes de vĂ©rification de l’Ăąge visĂ©s par le prĂ©sent rĂ©fĂ©rentiel :
1. IndĂ©pendance du prestataire de systĂšme de vĂ©rification de l’Ăąge vis-Ă -vis des services visĂ©s diffusant des contenus Ă  caractĂšre pornographique
Le prestataire de systĂšmes de vĂ©rification de l’Ăąge doit ĂȘtre indĂ©pendant juridiquement et techniquement de tout service de communication au public en ligne visĂ© par le prĂ©sent rĂ©fĂ©rentiel et garantir que les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique n’aient en aucune circonstance accĂšs aux donnĂ©es servant Ă  vĂ©rifier l’Ăąge de l’utilisateur.
2. Confidentialité vis-à-vis des services visés diffusant des contenus à caractÚre pornographique
Les donnĂ©es Ă  caractĂšre personnel permettant Ă  l’utilisateur de vĂ©rifier son Ăąge auprĂšs d’un service de communication visĂ© par le prĂ©sent rĂ©fĂ©rentiel ne doivent pas ĂȘtre traitĂ©es par ce service de communication.
En particulier, la mise en Ɠuvre de solutions de vĂ©rification de l’Ăąge ne doit pas permettre aux services de communication visĂ©s par le prĂ©sent rĂ©fĂ©rentiel de collecter l’identitĂ©, l’Ăąge, la date de naissance ou d’autres informations Ă  caractĂšre personnel de ces utilisateurs.
3. ConfidentialitĂ© vis-Ă -vis des prestataires de gĂ©nĂ©ration de preuve d’Ăąge
Lorsque le systĂšme de vĂ©rification de l’Ăąge ne permet pas Ă  l’utilisateur d’obtenir une identitĂ© numĂ©rique ou une preuve d’Ăąge rĂ©utilisable, les donnĂ©es Ă  caractĂšre personnel fournies par l’utilisateur en vue d’obtenir cet attribut ne doivent pas ĂȘtre conservĂ©es par le prestataire de gĂ©nĂ©ration de preuve d’Ăąge.
De plus, ce type de systĂšme ne doit pas requĂ©rir la collecte de documents officiels d’identitĂ©, s’il ne permet pas de gĂ©nĂ©rer une preuve d’Ăąge rĂ©utilisable.
Cette exigence est sans prĂ©judice du respect des obligations lĂ©gales et rĂšglementaires qui s’appliquent Ă  certains prestataires de gĂ©nĂ©ration de preuve d’Ăąge par ailleurs.
4. ConfidentialitĂ© vis-Ă -vis des Ă©ventuels autres tiers impliquĂ©s dans le processus de vĂ©rification de l’Ăąge
Lorsque des tiers autres que les prestataires de gĂ©nĂ©ration de preuve d’Ăąge sont impliquĂ©s dans le processus de vĂ©rification de l’Ăąge, par exemple pour la gestion des preuves ou de la facturation du service, ces tiers ne doivent pas conserver de donnĂ©es Ă  caractĂšre personnel des utilisateurs du systĂšme, sauf pour le stockage d’une preuve Ă  la demande de l’utilisateur.
5. Mesures de sauvegarde des droits et libertĂ©s des personnes par les vĂ©rificateurs de l’Ăąge
Lorsqu’il dĂ©termine si un utilisateur peut accĂ©der ou non Ă  un service de communication au public en ligne sur la base de la preuve qui lui est soumise, le service visĂ© diffusant des contenus Ă  caractĂšre pornographique prend une dĂ©cision automatisĂ©e au sens de l’article 22 du RGPD. En effet, en refusant l’accĂšs Ă  un service, cette dĂ©cision est susceptible de produire des effets juridiques sur les personnes concernĂ©es, ou au minimum, produit des effets significatifs affectant les personnes de façon similaire.
La CNIL considĂšre qu’une telle dĂ©cision peut ĂȘtre fondĂ©e sur l’exception prĂ©vue au paragraphe 2.b. de l’article 22 du RGPD, dans la mesure oĂč le service visĂ© diffusant des contenus Ă  caractĂšre pornographique est soumis Ă  une obligation de vĂ©rification de l’Ăąge prĂ©vue Ă  l’article 227-24 du code pĂ©nal et les dispositions de la loi SREN. L’article 22.2.b du RGPD impose que des mesures appropriĂ©es pour la sauvegarde des droits et libertĂ©s et des intĂ©rĂȘts lĂ©gitimes de la personne concernĂ©e soient prĂ©vues par les dispositions autorisant cette dĂ©cision automatisĂ©e.
Afin de prĂ©server les exigences en matiĂšre de protection de la vie privĂ©e qui visent Ă  limiter la capacitĂ© des services Ă  identifier les personnes, de telles mesures doivent ĂȘtre mises en place non par le service visĂ© diffusant des contenus Ă  caractĂšre pornographique, mais par le prestataire de solution technique de vĂ©rification de l’Ăąge, qu’il soit le fournisseur d’attribut ou l’Ă©metteur de preuve. De telles mesures doivent permettre aux utilisateurs, en cas d’erreur, de contester le rĂ©sultat de l’analyse de leur attribut afin d’obtenir une preuve d’Ăąge. Pour l’exercice de ces voies de recours, ces prestataires de solution de vĂ©rification de l’Ăąge devraient proposer aux utilisateurs de recourir Ă  diffĂ©rents fournisseurs d’attributs ou, selon les solutions, Ă  diffĂ©rents Ă©metteurs de preuve.
Le service visĂ© diffusant des contenus Ă  caractĂšre pornographique est tout de mĂȘme tenu, comme les prestataires de solution technique de vĂ©rification de l’Ăąge, de se conformer aux obligations en matiĂšre d’information imposĂ©es par le RGPD et doit prĂ©venir les utilisateurs de la possibilitĂ© d’exercer un recours auprĂšs du fournisseur de la solution de vĂ©rification de l’Ăąge.
En tout Ă©tat de cause, les fournisseurs d’attributs doivent Ă©galement permettre aux personnes de rectifier leurs donnĂ©es en vertu de l’article 16 du RGPD.

Exigences spécifiques pour les systÚmes protecteurs de la vie privée respectant le principe de « double anonymat »

Les objectifs suivants complĂštent les objectifs du socle minimal pour dĂ©finir un standard respectueux de la vie privĂ©e en matiĂšre de vĂ©rification de l’Ăąge en ligne.
6. Confidentialité renforcée vis-à-vis des services visés diffusant des contenus à caractÚre pornographique
Les exigences prévues au n° 2 sont complétées des suivantes.
Un systĂšme de vĂ©rification de l’Ăąge utilisant le « double anonymat » ne doit pas permettre aux services de communication visĂ©s par le prĂ©sent rĂ©fĂ©rentiel de reconnaĂźtre un utilisateur ayant dĂ©jĂ  utilisĂ© le systĂšme sur la base des donnĂ©es gĂ©nĂ©rĂ©es par le processus de vĂ©rification de l’Ăąge.
L’utilisation de systĂšmes de vĂ©rification de l’Ăąge utilisant le « double anonymat » ne doit pas permettre Ă  ces services de connaĂźtre ou de dĂ©duire la source ou la mĂ©thode d’obtention des preuves d’Ăąge impliquĂ©es dans le processus de vĂ©rification de l’Ăąge d’un utilisateur.
Un systĂšme de vĂ©rification de l’Ăąge respectueux de « double anonymat » ne doit pas permettre Ă  ces services de pouvoir reconnaĂźtre que deux preuves de majoritĂ© proviennent d’une mĂȘme source de preuves d’Ăąge.
7. ConfidentialitĂ© renforcĂ©e vis-Ă -vis des Ă©metteurs d’attributs d’Ăąge
Les exigences prĂ©vues au n° 3 sont complĂ©tĂ©es de sorte qu’un systĂšme de vĂ©rification de l’Ăąge utilisant le « double anonymat » ne doit pas permettre aux prestataires de gĂ©nĂ©ration de preuve d’Ăąge de savoir pour quel service la vĂ©rification d’Ăąge est effectuĂ©e.
8. ConfidentialitĂ© renforcĂ©e vis-Ă -vis des Ă©ventuels autres tiers impliquĂ©s dans le processus de vĂ©rification de l’Ăąge
Les exigences prévues au n° 4 sont complétées des exigences suivantes :
Un systĂšme de vĂ©rification de l’Ăąge utilisant le « double anonymat » ne doit pas permettre aux Ă©ventuels autres tiers impliquĂ©s dans le processus de reconnaĂźtre un utilisateur ayant dĂ©jĂ  utilisĂ© le systĂšme. Par exemple, un tiers assurant la transmission d’une preuve d’Ăąge ou certifiant sa validitĂ© ne doit pas ĂȘtre en mesure de savoir s’il a dĂ©jĂ  traitĂ© une preuve du mĂȘme utilisateur.
9. Disponibilité et couverture de la population
Les services de communication visĂ©s par le prĂ©sent rĂ©fĂ©rentiel doivent s’assurer que leurs utilisateurs disposent d’au moins deux mĂ©thodes de gĂ©nĂ©ration de preuve d’Ăąge diffĂ©rentes permettant l’obtention d’une preuve d’Ăąge par le biais d’un systĂšme de vĂ©rification d’Ăąge en « double anonymat ». En pratique, un prestataire proposant une solution en double anonymat doit y associer au moins deux modalitĂ©s d’obtention d’une preuve d’Ăąge (par exemple, une solution basĂ©e sur les documents d’identitĂ© et une solution basĂ©e sur l’estimation d’Ăąge).
Les services de communication visĂ©s par le prĂ©sent rĂ©fĂ©rentiel doivent s’assurer qu’un dispositif de vĂ©rification de l’Ăąge en « double anonymat » est disponible pour au moins 80 % de la population majeure rĂ©sidant en France.
Exemples et application :
ConcrĂštement, les solutions en « double anonymat » doivent proposer plusieurs prestataires de gĂ©nĂ©ration de preuve d’Ăąge (par exemple, diffĂ©rents fournisseurs d’accĂšs Ă  internet et/ou banques) et pour les autres solutions, diffĂ©rentes modalitĂ©s de gĂ©nĂ©ration de preuve Ăąge (analyse des traits du visage et fourniture de document d’identitĂ© par exemple).

Information des utilisateurs sur le niveau de protection de la vie privĂ©e attachĂ© aux dispositifs de vĂ©rification de l’Ăąge

10. Affichage explicite du niveau de protection de la vie privée des utilisateurs
Chaque solution de vĂ©rification de l’Ăąge doit ĂȘtre explicitement associĂ©e Ă  son niveau de protection de la vie privĂ©e, de sorte que les solutions respectant les standards de « double anonymat » soient affichĂ©es de maniĂšre claire et lisible. En tout Ă©tat de cause, les autres solutions ne doivent pas ĂȘtre confondues ou mises en valeur afin de tromper l’utilisateur en faveur de solutions moins protectrices de la vie privĂ©e.
Lorsqu’un tiers participant au processus de vĂ©rification d’Ăąge peut connaĂźtre le service pour lequel la vĂ©rification de l’Ăąge est faite, l’utilisateur doit en ĂȘtre clairement informĂ©.
S’agissant des systĂšmes de vĂ©rification d’Ăąge conformes au principe de « double anonymat », l’utilisateur doit ĂȘtre clairement informĂ© que cette solution garantit que le fournisseur de la vĂ©rification d’Ăąge ne peut pas connaĂźtre le service pour lequel cette vĂ©rification est faite.

Objectifs souhaitables et bonnes pratiques

Les objectifs ci-aprĂšs ne sont Ă  ce jour pas exigibles des systĂšmes de vĂ©rification de l’Ăąge pour la conformitĂ© au prĂ©sent rĂ©fĂ©rentiel, mais constituent un ensemble de bonnes pratiques vers lequel les solutions de vĂ©rification de l’Ăąge devraient tendre.
CapacitĂ© pour l’utilisateur de gĂ©nĂ©rer lui-mĂȘme des preuves d’Ăąge de façon confidentielle :

– l’utilisateur peut gĂ©nĂ©rer une preuve d’Ăąge localement, sans informer l’Ă©metteur initial de ses attributs d’Ăąge, ni un autre tiers ;
– l’utilisateur peut gĂ©nĂ©rer une preuve d’Ăąge via un service en ligne et utilisable sans disposer d’aucun accĂšs Ă  ses donnĂ©es Ă  caractĂšre personnel.

ConfidentialitĂ© des systĂšmes de vĂ©rification de l’Ăąge dans leur ensemble :

– le systĂšme repose sur des preuves Ă  divulgation nulle de connaissance (« zero knowledge proof ») ;
– le systĂšme repose sur des techniques de chiffrement possĂ©dant des propriĂ©tĂ©s de rĂ©sistance aux attaques les plus complexes, y compris dans le futur.

TROISIÈME PARTIE : SOLUTIONS DE GÉNÉRATION DE PREUVE DÉROGATOIRES ACCEPTÉES À TITRE TEMPORAIRE

En application de l’article 10 de la loi n° 2004-575 du 21 juin 2004 pour la confiance dans l’Ă©conomie numĂ©rique, les services assujettis mettent en Ɠuvre un systĂšme de vĂ©rification de l’Ăąge conforme aux caractĂ©ristiques techniques du prĂ©sent rĂ©fĂ©rentiel dans un dĂ©lai de trois mois Ă  compter de sa publication. NĂ©anmoins, Ă  l’issue de ces trois mois, les services assujettis peuvent, pendant une pĂ©riode transitoire de trois mois, destinĂ©e Ă  leur permettre d’identifier et de mettre en place une solution de vĂ©rification de l’Ăąge satisfaisant l’ensemble des premiĂšre et deuxiĂšme parties, mettre en Ɠuvre des solutions utilisant la carte bancaire, qui seront rĂ©putĂ©es conformes aux caractĂ©ristiques techniques du rĂ©fĂ©rentiel, sous rĂ©serve de respecter les conditions suivantes.
Une solution utilisant la carte bancaire constituerait une premiĂšre modalitĂ© de filtrage d’une partie des mineurs. Cette solution temporaire repose en effet sur une infrastructure dĂ©jĂ  dĂ©ployĂ©e et mobilisable.
Sous rĂ©serve du respect des exigences ci-dessous, cette solution permettrait dans un premier temps de protĂ©ger les mineurs les plus jeunes. Le filtrage doit s’opĂ©rer par une authentification forte (c’est-Ă -dire Ă  double facteur). A titre d’exemple, il peut ainsi s’opĂ©rer soit via une authentification forte seule (sans paiement), soit via un paiement (y compris d’un montant de zĂ©ro euro) couplĂ© Ă  une authentification forte.
Ces systÚmes de vérification :

– ne doivent pas ĂȘtre mis en Ɠuvre directement par les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique, mais par un tiers indĂ©pendant du service ;
– devront veiller Ă  la sĂ©curitĂ© de la vĂ©rification, afin de prĂ©venir les risques d’hameçonnage qui y seront associĂ©s. Il convient donc de s’assurer que les informations de paiement sont bien saisies sur des sites de confiance. Il serait souhaitable Ă  cet Ă©gard que les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique et les fournisseurs de solutions lancent de maniĂšre coordonnĂ©e une campagne de sensibilisation aux risques d’hameçonnage, tenant notamment compte de cette nouvelle pratique ;
– devront permettre au minimum de s’assurer de l’existence et de la validitĂ© de la carte, ce qui exclut une simple vĂ©rification de la cohĂ©rence du numĂ©ro de la carte ;
– mettent en Ɠuvre l’authentification forte prĂ©vue par la directive europĂ©enne (UE) 2015/2366 relative aux services de paiement (dite « DSP2 »), par exemple en s’appuyant sur le protocole 3-D Secure, dans sa deuxiĂšme version en vigueur, pour s’assurer que l’utilisateur du service est le titulaire de la carte au moyen d’une authentification Ă  double facteur.

QUATRIÈME PARTIE : AUDIT ET ÉVALUATION DES SOLUTIONS DE VÉRIFICATION DE L’ÂGE

La loi SREN prĂ©voit que « L’AutoritĂ© de rĂ©gulation de la communication audiovisuelle et numĂ©rique peut exiger des Ă©diteurs et fournisseurs de services [
] qu’ils conduisent un audit des systĂšmes de vĂ©rification de l’Ăąge qu’ils mettent en Ɠuvre afin d’attester de la conformitĂ© de ces systĂšmes avec les exigences techniques dĂ©finies par le rĂ©fĂ©rentiel. Le rĂ©fĂ©rentiel prĂ©cise les modalitĂ©s de rĂ©alisation et de publicitĂ© de cet audit, confiĂ© Ă  un organisme indĂ©pendant disposant d’une expĂ©rience avĂ©rĂ©e. »
Les sections suivantes visent Ă  prĂ©ciser les grands principes susceptibles de guider les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique qui seraient amenĂ©s Ă  procĂ©der Ă  la rĂ©alisation d’un tel audit.

Evaluation en conditions réelles des systÚmes mis en place

Afin de garantir une protection des mineurs Ă©levĂ©e, l’ARCOM Ă©valuera les solutions techniques de vĂ©rification de l’Ăąge au cas par cas, une fois mise en place par les Ă©diteurs, c’est-Ă -dire in concreto. En effet, certaines solutions Ă©tant paramĂ©trables par les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique eux-mĂȘmes, il convient d’effectuer une Ă©valuation dans les conditions d’exercice rĂ©el.
Les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique sont tenus de s’assurer que les solutions mises en place sont systĂ©matiquement en mesure de rĂ©pondre aux exigences du rĂ©fĂ©rentiel en adaptant, le cas Ă©chĂ©ant, leurs principes et leurs paramĂštres de fonctionnement.

Taux d’erreur, contournement et risques d’attaque

L’audit technique s’attache Ă  Ă©valuer, d’une façon gĂ©nĂ©rale, le respect par la solution de vĂ©rification de l’Ăąge de la loi et de l’ensemble du prĂ©sent rĂ©fĂ©rentiel.
A cet Ă©gard, il Ă©value tout particuliĂšrement :

– la capacitĂ© de la solution technique Ă  distinguer les utilisateurs mineurs ;
– l’absence de biais discriminatoires ;
– la rĂ©sistance aux pratiques de contournement potentielles (deepfakes, par exemple) et aux risques d’attaque (17).

IndĂ©pendance du prestataire d’audit

Afin de ne pas entacher la crĂ©dibilitĂ© de l’audit, il convient que l’auditeur dispose d’une expertise et d’une expĂ©rience avĂ©rĂ©e et qu’il soit indĂ©pendant tant des sociĂ©tĂ©s proposant les solutions de vĂ©rification de l’Ăąge que des services visĂ©s diffusant des contenus Ă  caractĂšre pornographique qui emploient ladite ou lesdites solutions techniques.
L’ARCOM pourra, dans une version ultĂ©rieure du prĂ©sent rĂ©fĂ©rentiel, prĂ©ciser les conditions dans lesquelles les audits doivent ĂȘtre rĂ©alisĂ©s et mis Ă  la disposition du public.
En l’Ă©tat, et dans l’attente des prĂ©cisions qui pourront ĂȘtre apportĂ©es ultĂ©rieurement par l’ARCOM, les entreprises sont encouragĂ©es Ă  rĂ©aliser des audits techniques de leurs systĂšmes de vĂ©rification d’Ăąge, d’abord sous six mois Ă  compter de la publication du prĂ©sent rĂ©fĂ©rentiel puis au moins chaque annĂ©e.
Les services visĂ©s diffusant des contenus Ă  caractĂšre pornographique sont incitĂ©s Ă©galement Ă  publier leur rapport d’audit au sein d’une page facilement accessible de leur interface en ligne, et dans un format aisĂ©ment comprĂ©hensible, par souci de transparence notamment envers les utilisateurs.

(1) ARCOM, La fréquentation des sites « adultes » par les mineurs (sur la base de données fournies par Médiamétrie) publiée le 25 mai 2023 :
(2) M. Arzano, C. Rozier, Alice au pays du porno : Ados : leurs nouveaux imaginaires sexuels, Ramsay, 2005.
(3) Voir : https://www.csa.fr/Informer/Toutes-les-actualites/Actualites/Quelles-solutions-pour-proteger-votre-enfant-des-images-a-caractere-pornographique-sur-internet ; et B. Smaniotto (chercheuse en psychopathologie et psychologie clinique), « Pornographie : quels impacts sur la sexualité adolescente ? », The Conversation, 28 août 2023 : https://theconversation.com/pornographie-quels-impacts-sur-la-sexualite-adolescente-207142
(4) Cour de Cassation, chambre criminelle, 23 février 2000, 99-83.928.
(5) https://www.ohchr.org/fr/documents/general-comments-and-recommendations/general-comment-no-25-2021-childrens-rights-relation
(6) CNIL, dĂ©libĂ©ration n° 2021-069 du 3 juin 2021 portant avis sur un projet de dĂ©cret relatif aux modalitĂ©s de mise en Ɠuvre des mesures visant Ă  protĂ©ger les mineurs contre l’accĂšs Ă  des sites diffusant un contenu pornographique (voir : https://www.legifrance.gouv.fr/cnil/id/CNILTEXT000044183781).
(7) Voir : https://www.cnil.fr/fr/la-cnil-publie-8-recommandations-pour-renforcer-la-protection-des-mineurs-en-ligne
(8) Voir :
(9) Voir : https://linc.cnil.fr/demonstrateur-du-mecanisme-de-verification-de-lage-respectueux-de-la-vie-privee
(10) RĂšglement (UE) 2016/679 du Parlement europĂ©en et du Conseil du 27 avril 2016 relatif Ă  la protection des personnes physiques Ă  l’Ă©gard du traitement des donnĂ©es Ă  caractĂšre personnel et Ă  la libre circulation de ces donnĂ©es.
(11) Voir communiqué de la CNIL en date du 21 février 2023 : https://www.cnil.fr/fr/controle-de-lage-pour-lacces-aux-sites-pornographiques
(12) CSA, avis n° 2021-11 du 23 juin 2021 sur le projet de dĂ©cret relatif aux modalitĂ©s de mise en Ɠuvre des mesures visant Ă  protĂ©ger les mineurs contre l’accĂšs Ă  des sites diffusant un contenu pornographique.
(13) « Restricted to adults ».
(14) Les headers sont des informations renvoyĂ©es par le serveur du site internet Ă  destination du navigateur de l’utilisateur au moment d’une requĂȘte.
(15) https://linc.cnil.fr/demonstrateur-du-mecanisme-de-verification-de-lage-respectueux-de-la-vie-privee
(16) https://www.cnil.fr/fr/verification-de-lage-en-ligne-trouver-lequilibre-entre-protection-des-mineurs-et-respect-de-la-vie
(17) L’Ă©valuation des risques d’attaques d’une solution de vĂ©rification d’Ăąge consiste Ă  dĂ©terminer si le systĂšme est susceptible d’ĂȘtre dĂ©tournĂ© Ă  des fins de fraude.

Date et signature(s)

Fait le 9 octobre 2024.

Pour l’AutoritĂ© de rĂ©gulation de la communication audiovisuelle et numĂ©rique :
Le président,
R.-O. Maistre