Déclaration de M. Cédric O, secrétaire d'Etat au numérique, sur l'intelligence artificielle, au Sénat le 2 octobre 2019. | vie-publique.fr | Discours publics

[ Publicité ]

Déclaration de M. Cédric O, secrétaire d'Etat au numérique, sur l'intelligence artificielle, au Sénat le 2 octobre 2019.

Personnalité, fonction : O Cédric.

FRANCE. Secrétaire d'Etat au numérique

Circonstances : Débat organisé à la demande du groupe du Rassemblement Démocratique et Social Européen, au Sénat le 2 octobre 2019

ti :

M. le président. L'ordre du jour appelle le débat, organisé à la demande du groupe du Rassemblement Démocratique et Social Européen, sur le thème : « L'intelligence artificielle : enjeux politiques, stratégiques et économiques. »

Nous allons procéder au débat sous la forme d'une série de questions-réponses dont les modalités ont été fixées par la conférence des présidents.

Je rappelle que l'auteur de la demande dispose d'un temps de parole de huit minutes, puis le Gouvernement répond pour une durée équivalente.

À l'issue du débat, le groupe auteur de la demande dispose d'un droit de conclusion pour une durée de cinq minutes.

(…)

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Monsieur le président, mesdames, messieurs les sénateurs, je tiens à remercier le groupe RDSE d'avoir pris l'initiative de ce débat, car le sujet de l'intelligence artificielle est décisif pour l'avenir de l'économie française en général. Il me semble très important que nous puissions en débattre au Parlement.

Je commencerai par partager avec vous quelques convictions, que j'aurai l'occasion de détailler par la suite.

Tout d'abord, vous l'avez dit, monsieur le sénateur, il faut constater que le paysage technologique mondial, particulièrement dans le secteur du numérique, est dominé par deux pays – les États-Unis et la Chine –, l'Europe en étant relativement absente.

Je commence par ce constat assez large, car il me paraît difficile de limiter le débat sur la souveraineté technologique de l'Europe au seul sujet de l'intelligence artificielle. Il convient de l'appréhender de manière globale, au niveau du numérique.

Nous le verrons très rapidement, des questions liées au calcul quantique vont se poser. Google a ainsi annoncé, la semaine dernière, avoir atteint la suprématie quantique. À côté de l'intelligence artificielle, un certain nombre de technologies clés font aujourd'hui l'objet d'une bataille technologique mondiale, dominée par les Américains et les Chinois.

La question qui se pose à nous est donc celle de la capacité de l'Europe à faire émerger des champions qui soient à la hauteur de Google ou de Facebook, dont je rappelle qu'ils ne sont pas des spécialistes de l'intelligence artificielle : au début, Google était un moteur de recherche et Facebook un réseau social. Mais l'économie mondiale est ainsi faite que ces groupes grossissent, se développent et dégagent des marges considérables leur permettant, ensuite, d'investir près de 40 milliards d'euros chaque année dans l'intelligence artificielle.

Le premier combat à mener ne concerne donc pas l'intelligence artificielle en tant que telle. Il s'agit de faire émerger en France et en Europe des entreprises de cette taille.

En matière d'intelligence artificielle, la France a une carte à jouer.

Je le rappelle régulièrement : j'ai eu l'occasion de rencontrer la plupart des responsables de l'intelligence artificielle de Google, Facebook, DeepMind, Apple et Amazon, et j'ai pu constater que, la plupart du temps, il s'agissait de chercheurs français.

M. Jean Bizet. Exact !

M. Cédric O, secrétaire d'État. Cette situation est liée à la qualité de l'école française de sciences de l'informatique et de mathématiques.

Dans un monde où le combat pour l'intelligence artificielle est d'abord un combat pour l'intelligence humaine, le problème de notre pays est de garder ses chercheurs, d'en avoir davantage et d'en faire venir d'autres de rang mondial. Ce sujet est au coeur de la stratégie présentée l'année dernière par le Président de la République.

La plus grande part de l'argent public – 1,5 milliard d'euros – qui sera consacrée au cours du quinquennat à l'intelligence artificielle bénéficiera aux équipes de recherche. En effet, dans un monde où le passage de la recherche fondamentale à l'application sur le marché est très rapide, notre premier combat doit être de constituer des équipes de recherche dans notre pays. Pour le dire pragmatiquement, cet argent ira donc au cadre de la recherche, aux équipes et aux salaires des chercheurs.

Nous disposons d'ores et déjà de la qualité humaine qui nous permettra de nous battre. Mais il sera probablement compliqué, à court terme, de combattre les Américains et les Chinois dans un domaine où ils ont pris une avance considérable, celui des très grandes bases de données de consommateurs. Les bases de données dont ils disposent augmentent exponentiellement, et aucun acteur européen n'y a accès.

Il n'en demeure pas moins, eu égard à la spécificité de l'industrie et de l'économie françaises, que certains de nos secteurs disposent du savoir-faire, des bases de données et des grandes entreprises permettant de faire émerger des champions et de participer à la compétition internationale. Je pense aux secteurs de l'énergie, de la santé, aux systèmes critiques et à la mobilité – nous aurons l'occasion d'y revenir.

Je précise que la stratégie qui a été présentée couvre des sujets tels que les calculateurs, les puces, l'adoption par l'administration de l'intelligence artificielle et le développement de celle-ci au sein des entreprises. Il y a là un débat. Il s'agit de faire en sorte que nos PME, et pas seulement de grands groupes et les entreprises du numérique, soient capables d'utiliser les outils de l'intelligence artificielle.

L'aspect européen de la question, que vous avez mentionné, est absolument essentiel.

Si nous voulons atteindre le niveau d'investissements des Américains et des Chinois, nous ne pouvons le faire qu'au niveau européen. Vous avez mentionné le chiffre de 20 milliards d'euros. À ce stade, il est très difficile de dire à quel niveau nous en sommes. L'Union européenne a estimé qu'il fallait investir 20 milliards d'euros par an. J'estime, à titre personnel, que nous investissons actuellement moins de 10 milliards d'euros aujourd'hui.

On mesure l'effort à faire au niveau européen ! Ce point sera au coeur de la mission de Margrethe Vestager et de Sylvie Goulard, qui était auditionnée aujourd'hui même au Parlement européen.

Un certain nombre d'initiatives ont été prises, qu'il faut saluer. Je pense à celle prise dans le domaine des calculateurs, à celle aussi en faveur d'une agence pour l'innovation de rupture, qui peut rappeler l'agence américaine Darpa.

Il faut, de toute évidence développer collectivement ces initiatives. Au seul niveau franco-allemand, nombre de projets peuvent encore être menés, au-delà de ce qui existe déjà.

Je tiens à mentionner un autre élément qui relève du niveau européen : la politique commerciale. Dans certains domaines, en effet, nous allons voir arriver des applications ou des sociétés dont les produits seront meilleurs que ceux de nos entreprises, parce qu'ils auront été développés grâce à des bases de données incontrôlées. Je pense notamment aux produits de reconnaissance faciale en provenance d'Asie, dont la supériorité est liée au fait que ces pays n'exercent pas suffisamment de contrôle sur ces productions et ont une conception de la vie privée différente de la conception européenne.

Devrons-nous laisser ces produits entrer sur le marché européen, dans la mesure où ils ont été conçus sur la base de valeurs qui ne sont pas les nôtres ? Nous serons confrontés assez rapidement à cette question, et l'Europe devra donner une réponse à la hauteur.

Ce dernier sujet me permet d'établir un lien avec les questions éthiques qui, vous l'avez dit, sont au coeur de la thématique de l'intelligence artificielle. Ces questions concernent la perte de contrôle de l'être humain, les biais et certaines problématiques techniques. Il convient, pour des raisons économiques, d'aborder ces sujets en premier lieu aux niveaux international et européen.

À cet égard, la France a été très active. Vous avez mentionné, monsieur le sénateur, le RGPD, qui est inspiré de la législation française et du travail de la Commission nationale de l'informatique et des libertés, la CNIL. Je pense également à l'initiative, laquelle est en passe d'aboutir, relative à la création d'un « GIEC de l'intelligence artificielle », portée par la France et le Canada : un pas important a été franchi lors du dernier G7, à Biarritz, ce qui permettra de partager, d'abord, les acquis du consensus scientifique et, demain, un certain nombre de règles d'utilisation de l'intelligence artificielle au niveau international. À cet égard, la transparence des algorithmes est un sujet clé.

Je dirai pour conclure qu'il s'agit probablement du commencement de l'histoire. Je ne suis pas de ceux qui pensent que nous sommes au début d'une dystopie. L'intelligence artificielle apporte beaucoup au secteur de la santé, pour la personnalisation des soins par exemple. Il convient d'être à la hauteur de cet enjeu, d'abord au niveau français – car dans un monde où c'est le leader qui fixe la norme, nous devons, nous aussi, être capables d'avoir des leaders –, mais aussi au niveau européen.

Je vous remercie le Sénat de s'être saisi de ce sujet. (Applaudissements sur les travées des groupes LaREM et RDSE. – MM. Olivier Cadic et Jean Bizet applaudissent également.)


- Débat interactif -

M. le président. Nous allons maintenant procéder au débat interactif.

Je rappelle que chaque orateur dispose de deux minutes au maximum pour présenter sa question, suivie d'une réponse du Gouvernement pour une durée équivalente.

Dans le cas où l'auteur de la question souhaite répliquer, il dispose de trente secondes supplémentaires, à la condition que le temps initial de deux minutes n'ait pas été dépassé.

Dans le débat interactif, la parole est à M. Pierre Ouzoulias.

M. Pierre Ouzoulias. Dans les disciplines qui contribuent aux recherches sur l'intelligence artificielle, les Gafam, avec des moyens considérables, développent des stratégies, efficaces et prédatrices, de recrutement des chercheurs des institutions publiques.

Vous nous l'avez dit, monsieur le secrétaire d'État, une bonne partie des Gafam fonctionnent aujourd'hui avec des chercheurs venant de la recherche publique. Ces firmes y parviennent parce qu'elles proposent des rémunérations de cinq à dix fois supérieures aux salaires du secteur public. En outre, elles mettent à la disposition des chercheurs des infrastructures exceptionnelles. Vous avez ainsi évoqué la capacité supposée de Google de permettre aux chercheurs de travailler sur des ordinateurs quantiques.

Face à l'attractivité et à la prédation de ces conglomérats supranationaux, quelle est la stratégie du Gouvernement pour enrayer la fuite des cerveaux de la recherche française ? Cette question est fondamentale.

Si vous ne parveniez pas à développer une telle stratégie, nous perdrions à très court terme toutes les capacités intellectuelles de notre pays au profit des Gafam.

Vous avez esquissé le problème, mais je n'ai pas entendu la solution. J'aimerais donc que vous développiez votre propos. Quelles solutions trouverez-vous, dans le cadre de la grande loi de programme pour la recherche, pour enrayer cette fuite des cerveaux ?

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Monsieur le sénateur, je profite de cette occasion pour saluer le rapport que vous avez réalisé sur ce sujet avec M. Gattolin, car il souligne un certain nombre de défis.

Je l'ai dit, nous avons des atouts, notamment la qualité de notre recherche publique. Nous devons être capables de garder nos chercheurs, et nous sommes en train d'y parvenir. À la suite de l'annonce faite par le Président de la République l'année dernière, nous avons fait un peu de « judo » : les Gafam et de nombreux centres d'intelligence artificielle ont ainsi localisé en France leurs centres de recherche.

Mais il faut regarder la situation en face. Pourquoi les chercheurs rejoignent-ils les Gafam ? Non pas seulement à cause des salaires, mais en raison de l'intérêt des recherches qu'ils peuvent mener dans ces centres. Il nous faut donc faire en sorte de localiser les meilleurs centres d'intelligence artificielle en France, l'idée étant de créer un écosystème de recherche.

Un tel écosystème doit englober les entreprises et la recherche publique. Il permet aussi aux chercheurs du secteur public de mener leurs recherches dans un cadre intéressant et de trouver un écosystème attractif.

Nous avons ainsi décidé de concentrer une partie de nos forces sur quatre hubs de recherche – Paris, Grenoble, Toulouse et Nice – et de créer, dans ces cadres-là, un écosystème qui encourage les chercheurs à rester dans notre pays. Ces conditions favorables tiennent aux salaires, à la présence de post-doctorants qui puissent travailler avec eux, d'entreprises qui investissent pour leur fournir les bases de données dont ils ont besoin, qu'ils travaillent dans les domaines de l'aéronautique, de la cybersécurité ou de la santé.

Nous constatons que nous avons enrayé le phénomène des départs. Nous avons même réussi à faire revenir plusieurs chercheurs. L'un des meilleurs chercheurs chiliens, qui exerçait à Stanford, a ainsi rejoint l'institut Aniti à Toulouse, parce qu'il a trouvé là un écosystème favorable. Cela ne nous dispense pas de disposer, aussi, des meilleures entreprises.

M. le président. La parole est à M. Pierre Ouzoulias, pour la réplique.

M. Pierre Ouzoulias. Votre réponse n'est pas claire, monsieur le secrétaire d'État. Que les Gafam s'installent en France en créant des laboratoires de recherche dans lesquels ils attirent la recherche française, cela ne me rassure pas… Dans un tel écosystème, nous allons nous faire « boulotter » – je vous prie d'excuser cette expression – par de grands carnassiers ! Il faut absolument trouver autre chose.

Vous dites que le phénomène est en train de s'inverser. En vue de préparer ce débat, j'ai interrogé mes collègues mathématiciens du CNRS, qui m'ont dit que les laboratoires étaient vides, car ils perdaient systématiquement leurs chercheurs.

M. Jean Bizet. C'est vrai !

M. Pierre Ouzoulias. Dans le cadre de la loi de programme pour la recherche, il faut aujourd'hui envoyer un signal. La recherche française doit donner aux chercheurs ce qu'ils ne trouvent pas chez les Gafam : une carrière professionnelle ayant du sens, la liberté et la capacité de gérer leurs recherches fondamentales sur le long terme.

C'est ainsi que nous pourrons à partir à l'assaut des Gafam, et je souhaite que cet objectif soit inscrit dans la loi de programme pour la recherche.

M. Jean Bizet. Très bien !

M. le président. La parole est à M. Joël Guerriau.

M. Joël Guerriau. Je tiens à saluer l'initiative de nos collègues du RDSE d'ouvrir le débat sur les enjeux économiques et stratégiques de l'intelligence artificielle.

Le groupe Les Indépendants avait eu l'occasion, à l'automne 2017, d'interpeller le Gouvernement sur cette problématique majeure du XXIe siècle, dans le cadre d'un débat parlementaire orienté sur le rôle que la France et l'Europe peuvent encore espérer jouer dans cette course à l'innovation. Le constat que nous faisions n'était guère réjouissant.

Deux ans plus tard, ces craintes n'ont pas disparu ; au contraire, elles se sont même renforcées. Et pour cause : les preuves ne cessent de s'accumuler qui démontrent qu'il s'agit bel et bien d'une nouvelle révolution technologique. Elle percutera de plein fouet notre modèle social ainsi que nos modes d'organisation.

L'intelligence artificielle recourt à des algorithmes pour reproduire des processus cognitifs humains. D'où le sentiment de dépossession que nous éprouvons souvent face à ses utilisations toujours plus diverses. Les robots imitent de mieux en mieux les humains, au point qu'il est devenu monnaie courante de les confondre, tantôt en écoutant la réponse pleine d'humour d'un assistant vocal, tantôt en lisant un message personnalisé prérédigé par un téléphone dit « intelligent ».

Le risque existe de voir émerger à grande échelle de nouveaux réseaux de crime organisé qui utiliseraient l'intelligence artificielle pour mieux tromper particuliers et entreprises. La menace existe déjà. C'est notamment le cas avec les deepfakes : image et voix humaines sont copiées et l'identité est détournée pour diffuser de fausses informations.

Monsieur le secrétaire d'État, pouvez-vous nous confirmer que les services de l'État agissent pour faire face à cette nouvelle forme de délinquance et de piratage ? Quelles mesures sont prévues pour cibler et punir ces délinquants et ces criminels de l'intelligence artificielle, qu'ils agissent en France ou à l'étranger ?

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Monsieur le sénateur, nous n'avons aucun intérêt à laisser entendre qu'un cauchemar s'annonce. L'intelligence artificielle permettra énormément de progrès, dans le domaine de la santé par exemple, à la fois pour personnaliser les soins et pour traiter plus efficacement. Elle permet ainsi de détecter plus facilement et plus en amont un certain nombre de cancers, notamment celui du sein.

Ne tombons pas dans le rejet absolu de l'intelligence artificielle ! Il y a des enjeux auxquels il faut veiller, mais aussi de très nombreuses opportunités, et nous devons faire en sorte d'être parmi ceux qui en profitent.

Vous avez cité un certain nombre de dérives de l'intelligence artificielle. Or nous n'en sommes qu'aux débuts de cette technologie. Je ne pense pas qu'il y ait beaucoup de deepfakes en circulation, car cela nécessite une certaine maîtrise technologique. Il est vrai que des risques existent. Le premier défi qui s'impose à l'État, c'est d'avoir les compétences en interne pour traiter ces sujets. On a parlé des deepfakes ; on peut évoquer aussi le recrutement et le tri de candidatures par voie d'algorithmes… Les Français doivent avoir la garantie que nous sommes capables d'auditer les algorithmes et d'éviter ainsi les biais racistes ou genrés. C'est pourquoi, avec la direction interministérielle du numérique et du système d'information et de communication de l'État, la Dinsic, nous travaillons en vue de recruter des data scientists – pardon pour l'anglicisme ! – et des personnes ayant le niveau de compétences pour procéder à ce type de vérifications. Il s'agit de profils rares et chers, et nous devons donc nous préparer à ces recrutements en amont.

M. Bruno Sido. Peut-on les payer ?

M. le président. La parole est à M. Joël Guerriau, pour la réplique.

M. Joël Guerriau. Le cauchemar, ce peut être l'intrusion dans la vie privée d'une personne via l'intelligence artificielle. Je suis d'accord avec vous, il faut considérer positivement cette évolution technologique, mais à condition de la maîtriser parfaitement et d'éviter le pire, c'est-à-dire que des individus ne se retrouvent dans une situation indescriptible. D'où l'importance de prévoir tous les éléments de protection nécessaires, et de ne pas s'illusionner en pensant que le monde est entièrement beau et gentil.

M. Bruno Sido. Très bien !

M. le président. La parole est à M. Olivier Cadic.

M. Olivier Cadic. La Chine, qui affirme vouloir dominer le monde dans les trois prochaines décennies, ne reconnaît pas la démocratie et les droits de l'homme comme valeurs universelles. Sa Constitution la définit comme un « État socialiste de dictature démocratique populaire ».

La Chine a créé un « cybermur » pour imposer un contrôle social de sa population, en combinant réseaux sociaux, caméras à reconnaissance faciale et intelligence artificielle.

Elle utilise l'intelligence artificielle à des fins de contrôle social à très grande échelle, via un système algorithmique de reconnaissance faciale. Chaque citoyen et chaque entreprise disposent d'un capital initial de mille points. En fonction de leurs comportements et fréquentations, ils gagnent ou perdent des points. « Les mauvais citoyens » sont sujets à des restrictions médicales, d'accès à l'emploi ou à des interdictions de déplacement. Cela peut également se traduire par des traitements d'humiliation sociale, par l'affichage sur la voie publique et sur écran géant du portrait d'un passant en retard de paiement ou ayant jeté un mégot dans la rue.

Cette dictature 5G utilise ses Routes de la soie pour tenter de prendre subrepticement le contrôle de pays en liant son aide à la signature de contrats de fourniture d'équipements technologiques. Un tiers des pays du monde ont d'ores et déjà signé des partenariats avec les entreprises chinoises pour leur acheter ces technologies. À elle seule, Huawei fournit des technologies de surveillance fondées sur l'intelligence artificielle à plus de cinquante États.

Envisagez-vous de faire interdire sur notre territoire – ou tout au moins d'en restreindre l'accès – les produits de sociétés chinoises telles que Huawei ou Alibaba, par exemple ?

Notre pays dispose-t-il d'un plan pour nous protéger des pratiques intrusives chinoises, susceptibles de menacer à terme nos libertés ?

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Monsieur le sénateur, j'ai eu l'occasion d'aborder cette question lors mon intervention liminaire. Je pense qu'il y a là un sujet défensif et un autre offensif.

D'un point de vue défensif, certaines technologies développées dans un contexte de valeurs opposées aux nôtres doivent être considérées via le prisme de la politique commerciale de l'Union européenne. En effet, pour ce qui est de la reconnaissance faciale, les Chinois sont probablement meilleurs que nous, en tout cas pour un certain nombre d'applications. Il faudra en tirer les conséquences : on ne saurait accepter une distorsion de concurrence fondée sur des pratiques contraires à notre propre éthique.

Il faut avoir une approche défensive, mais également offensive, car, malheureusement, dans le monde du numérique, les usages s'imposent souvent. Les Français peuvent trouver que Google et Facebook ne paient pas suffisamment d'impôts et qu'ils ne respectent pas assez la vie privée, comparativement à ce qu'exigent nos valeurs nationales et européennes… Il n'empêche que 40 millions de Français utilisent Facebook et que Google dispose de plus de 90 % de parts de marché en tant que moteur de recherche !

Il nous faut donc avoir nos propres Google et Facebook. Dans un monde où les usages s'imposent et où n'existent qu'un seul moteur de recherche, un seul réseau social et une seule application de réservation de voitures, nous devons avoir nos propres leaders, parce que le leader fixe la norme. Il est impératif de mener cette stratégie défensive de protection de nos valeurs et de nos relations commerciales, mais également – je le répète – de faire émerger nos propres champions, lesquels fixeront la norme pour tous.

M. le président. La parole est à M. Olivier Cadic, pour la réplique.

M. Olivier Cadic. Je vous parle de la Chine et vous me répondez en évoquant Google et les entreprises américaines !

Le véritable sujet est celui de la réciprocité. Que je sache, Google et Twitter ne sont pas autorisés en Chine. Même si nous développions nos entreprises dans ce domaine, il ne leur serait pas pour autant permis de travailler dans ce pays… Je souhaite donc que l'on impose le principe de réciprocité.

Puisque l'on ne peut pas vendre en Chine, puisque nos entreprises ne peuvent pas garantir à certains citoyens chinois la protection de leurs données et une approche démocratique, il faut appliquer le principe de réciprocité à l'envers : ce qui est interdit pour nos entreprises doit être interdit pour les entreprises chinoises au sein de l'Union européenne. Je pose la question : dans quel monde voulons-nous vivre demain ?

M. le président. La parole est à M. Jean Bizet.

M. Jean Bizet. Comme chacune et chacun d'entre nous, je me réjouis des actions engagées au plan national en faveur de l'intelligence artificielle. Vous l'avez rappelé, monsieur le secrétaire d'État, la France dispose d'une recherche d'excellence, dont les liens avec le monde industriel doivent malgré tout être renforcés. C'est précisément l'un des axes de la stratégie européenne pour l'intelligence artificielle que propose la Commission européenne, avec l'ambition qu'y soient consacrés pas loin de 20 milliards d'euros chaque année à partir de 2021.

La France doit saisir cette initiative européenne et se positionner en leader de l'intelligence artificielle en Europe avec l'Allemagne. Car, face aux géants américains et chinois, ce n'est qu'à l'échelle européenne que pourra se déployer une stratégie globale prenant en compte les dimensions non seulement scientifique et économique, mais aussi éthique et sociétale de cette nouvelle forme d'économie, et capable de faire prévaloir une approche fondée sur la transparence et la confiance.

Dans un rapport publié en janvier 2019, la commission des affaires européennes appelait à utiliser tous les moyens pour combler notre retard. Sur ce fondement, le Sénat a recommandé dans une résolution européenne de mars dernier que l'intelligence artificielle puisse faire l'objet d'un projet important d'intérêt européen commun, comme ce fut le cas avec succès pour la micro-électronique. Ce mécanisme, prévu par le traité sur le fonctionnement de l'Union européenne, permet, sous certaines conditions, le versement d'aides financières de la part de plusieurs États membres.

Ainsi, nous pourrons construire cet « Airbus de l'intelligence artificielle » que les ministres français et allemand de l'économie appelaient encore de leurs voeux il y a quelques jours. Il en résulterait des effets d'entraînement positifs pour l'ensemble des vingt-sept États membres.

Monsieur le secrétaire d'État, comptez-vous porter cette ambition devant le Conseil pour contribuer, au-delà des coopérations bilatérales que nous saluons, à la mise en place d'une véritable stratégie industrielle européenne en faveur de l'intelligence artificielle ?

M. Bruno Sido. Très bien !

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Le projet que vous évoquez est au coeur de la volonté commune de Bruno Le Maire et de Peter Altmaier de travailler à la souveraineté européenne en faisant émerger un certain nombre de champions dans des domaines particulièrement stratégiques pour la souveraineté européenne comme l'intelligence artificielle. Vous avez cité, monsieur le sénateur, l'« Airbus de l'intelligence artificielle », évoqué par les deux ministres, mais on peut également penser au projet de cloud souverain ou au domaine du calcul quantique.

Les outils que vous évoquez – les projets importants d'intérêt européen commun – peuvent être extrêmement intéressants. Ils permettent d'aller au-delà d'un certain nombre de contraintes liées aux aides d'État. C'est ce qui a été fait pour les supercalculateurs et le plan Nano, lequel n'est pas sans lien d'ailleurs avec l'intelligence artificielle. En effet, comme je l'indiquais, il faut prendre en compte non seulement les logiciels, mais également les puces, qui sont un élément de la souveraineté.

Nous travaillons donc sur un certain nombre de sujets. Dans son programme de travail, la nouvelle Commission a placé sur le haut de la pile le dossier relatif à l'émergence de champions européens de l'intelligence artificielle. Nous sommes extrêmement engagés sur ces sujets, sur lesquels nous progresserons, je le pense, dans les années à venir.

Il est également important de favoriser la consolidation d'un certain nombre de start-up européennes. Ces entreprises sont souvent leaders sur leur marché domestique, mais il faut leur permettre d'atteindre le niveau de leurs concurrents américains ou chinois – les premiers sont déjà là, et les seconds arrivent. C'est la raison pour laquelle cette consolidation européenne est nécessaire, ce qui nécessitera peut-être d'assouplir certaines règles européennes relatives aux concentrations.

M. le président. La parole est à M. Franck Montaugé.

M. Franck Montaugé. L'exploitation algorithmique des grandes bases de données est un des aspects que recouvre la notion d'intelligence artificielle, qui est en réalité sémantiquement plus large. Ma question portera sur les conséquences de cette technique sur le travail et l'emploi.

Nous le constatons aujourd'hui avec les travailleurs du clic et de la nouvelle industrie des plateformes, le monde du travail est peu préparé à l'économie du numérique qui émerge sous nos yeux partout dans le monde.

Il est très difficile d'évaluer les conséquences du développement de l'intelligence artificielle, de l'automation et de la robotique, notamment en termes de solde des emplois qui en résultera. Ce qui paraît certain en revanche, c'est que la plupart des métiers et des organisations seront affectés.

Dans son rapport intitulé Donner un sens à l'intelligence artificielle, le député Cédric Villani nous appelle à une réflexion sur les modes de complémentarité entre l'humain et l'intelligence artificielle, une complémentarité non aliénante, mais source de progrès pour l'humanité et prenant en compte la dimension écologique de l'économie nouvelle émergente.

Dans ce contexte, quelles initiatives et démarches structurées le Gouvernement compte-t-il prendre pour refondre le pacte social et républicain, d'ores et déjà affecté par ces nouvelles formes de travail ? Dans un ouvrage récent, la sociologue Dominique Méda relève que « le capitalisme de plateforme participe de l'émergence de formes renouvelées, voire exacerbées, de sujétion du travailleur ».

La proposition intéressante de Cédric Villani de créer un « lab public de la transformation du travail » retient-elle votre intérêt pour articuler ces grandes transformations sociétales avec les politiques publiques, qui doivent les prendre en compte et même les anticiper ?

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. La question des conséquences de la numérisation – j'irai plus loin que l'intelligence artificielle, car nous sommes face à un bouleversement du monde du travail, qui découle de la transformation numérique – ne fait pas l'unanimité au sein du monde de la recherche. Il est très difficile, vous l'avez dit monsieur le sénateur, de dire s'il y aura des disparitions d'emplois, combien de métiers seront transformés, si le résultat sera bénéfique ou négatif.

Je constate que les Allemands ont six fois plus de robots que nous et qu'ils sont au plein-emploi. La question, c'est d'être compétitif et au bon niveau, pour tirer notre épingle du jeu. Le véritable problème est celui de la transition : il faut être capable de former les gens et de les reformer, car certains emplois, comme dans la banque ou la distribution, seront considérablement transformés, afin de les conduire, quel que soit leur niveau de qualification – les ingénieurs seront aussi touchés –, vers les emplois du numérique.

Ce sujet est au coeur du pacte productif sur lequel nous travaillons avec Muriel Pénicaud et Bruno Le Maire. Nous abordions précisément ce matin encore la question de la formation et de la reformation dans le cadre de la transformation numérique, qui est aussi un atout : 80 000 postes sont ouverts dans le secteur numérique, et il y en aura 200 000 en 2022.

Il faut voir le numérique comme un atout, mais il est nécessaire de penser la transition et la formation des travailleurs. Je suis convaincu qu'il faut définir un cadre national, mais que les choses se feront par bassin d'emploi. C'est autour de Perpignan, de Lille, que les employeurs, les organisations syndicales, les collectivités territoriales, Pôle emploi et l'État doivent travailler pour identifier combien de personnes risquent de voir leur métier transformé, quelles sont leurs opportunités et comment les former pour s'adapter aux changements.

M. le président. La parole est à M. Franck Montaugé, pour la réplique.

M. Franck Montaugé. Monsieur le secrétaire d'État, merci d'avoir évoqué la dimension territoriale du sujet, que je souhaitais aborder. J'espère que nous ne nous concentrerons pas uniquement sur la question des emplois et de leur transformation au coeur des métropoles ou en périphérie de celles-ci, et que les territoires ruraux seront aussi pris en compte.

Dans la continuité de la communication de la Commission européenne intitulée L'intelligence artificielle pour l'Europe, il est, me semble-t-il, urgent que soit créé, pour reprendre le jargon de la Commission européenne, un projet important d'intérêt européen commun. Cela pourrait d'ailleurs être un élément de réponse à la question posée par Jean Bizet.

Je conclurai en soulignant que les moyens financiers sont vraiment très insuffisants par rapport aux enjeux que représentent l'intelligence artificielle et son développement, notamment face aux États-Unis, à la Chine et à quelques autres pays dans le monde.

M. le président. La parole est à M. Jean-Yves Roux.

M. Jean-Yves Roux. Les usages de l'intelligence artificielle et des algorithmes qui y président sont multiples, croissants et, dans bien des cas, invisibles et incompréhensibles pour le commun des mortels.

Parmi les usages les plus emblématiques, je citerai les fils d'actualité des réseaux sociaux. Or ces réseaux constituent pour les jeunes de 15 ans à 34 ans les vecteurs d'information principaux dans plus de 70 % des cas.

Les algorithmes qui régissent les réseaux sociaux et les mécanismes de traitement des données associées nourrissent tous les fantasmes et autorisent des manipulations d'opinion. Pour reprendre un propos de Tristan Mendès France, maître de conférences à la Sorbonne, spécialiste des nouveaux médias, « les algorithmes accentuent, non pas ce qui est vrai, mais ce qui est choquant, ce qui est clivant ».

Le rapport de la Commission nationale de l'informatique et des libertés de décembre 2017 sur les algorithmes à l'heure de l'intelligence artificielle posait déjà la question en ces termes : comment permettre à l'homme de garder la main ? J'ajouterai : comment le citoyen, la démocratie, la République peuvent-ils garder la main ?

Là où le débat public, le débat démocratique, la Constitution, la République posent des règles – l'égalité hommes-femmes, des principes non discriminatoires, le respect de la vérité –, la fabrique de l'opinion pour les jeunes générations s'opère très majoritairement dans un espace dérégulé, international, dans lequel la réalité peut être distendue.

Aristote disait que le progrès ne vaut que s'il est partagé par tous. Monsieur le secrétaire d'État, quelle stratégie comptez-vous proposer pour mettre en oeuvre des usages éthiques et régulés de l'intelligence artificielle dans le secteur de l'information ?

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. La première question à régler aujourd'hui – et cela fera partie, je pense, du programme de travail de la prochaine Commission –, avant même la régulation, est celle de la transparence.

Aujourd'hui, l'État, ou la puissance publique, n'est pas capable de dire pourquoi on voit telle information, comment ces informations sont hiérarchisées, et comment on décide de montrer telle information à telle personne. C'est une boîte noire, même si nous avons fait quelques progrès.

La première chose à faire, c'est d'obliger ces entreprises à nous dire comment elles traitent l'information, afin que nous, ou des organismes de contrôle d'ailleurs, puissions voir si cela pose problème. Si ces entreprises se politisaient et décidaient de soutenir quelqu'un, nous ne le saurions même pas, puisque je ne vois pas la même chose que vous sur mon fil d'actualité.

La question de la transparence est la mère de toutes les batailles.

D'abord, il faut comprendre ce qui se passe pour chaque personne et pour chaque profil.

Ensuite se pose la question de la régulation, qu'il ne faut d'ailleurs pas prendre uniquement dans le sens de l'information. La proposition de loi de la députée Laetitia Avia arrive au Sénat, et nous aurons l'occasion de débattre des contenus haineux. Le Gouvernement propose un certain nombre de mécanismes pour imposer des obligations aux plateformes et vérifier qu'elles les respectent.

La question de l'information est encore plus sensible, puisque la liberté de la presse impose certains cadres. Nous devons avoir un débat de société sur ce sujet.

Pour conclure, tout ce que nous avons pu lire sur la manipulation de l'information montre que le noeud du problème se situe dans la capacité à former nos jeunes et nos moins jeunes à l'esprit critique. Nous devons traiter cette question extrêmement importante avec l'éducation nationale ; le Sénat ou l'Assemblée nationale pourrait également s'en saisir.

M. le président. La parole est à Mme Noëlle Rauscent.

Mme Noëlle Rauscent. Service public et intelligence artificielle peuvent apparaître comme des sujets très éloignés l'un de l'autre. En réalité, un grand nombre de dispositifs utilisent aujourd'hui l'intelligence artificielle pour accompagner au quotidien nos concitoyens.

L'intelligence artificielle se positionne ainsi comme un vecteur innovant pour rendre l'administration française plus proche des besoins des usagers, plus efficace, plus efficiente et tournée vers l'avenir. Porteuse d'opportunités nouvelles, elle favorise le recentrage des agents publics sur leur coeur de métier, sans diminuer le contact humain.

Monsieur le secrétaire d'État, je connais votre implication sur le sujet. Aussi, pouvez-vous nous dire quelles sont les prochaines étapes prévues par le Gouvernement pour accompagner la transformation de notre administration ? Et Dieu sait si elle en a besoin ! Quels seront les moyens financiers et humains mis à disposition pour atteindre nos objectifs en matière d'e-administration ?

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Je le disais, nous devons nous occuper de la montée en compétences de notre administration pour qu'elle soit capable de réguler l'intelligence artificielle. C'est aussi une grande opportunité ! En effet, l'intelligence artificielle, utilisée comme un outil et non comme une finalité, permet de réduire la pénibilité d'un certain nombre de métiers, quand il faut traiter un très grand nombre d'informations.

Pour vous donner une idée, environ 10 % des fonds du plan que nous avons annoncé sont consacrés à la transformation de l'administration. C'est le cas par exemple dans la santé, ou au sein de la Dinsic, que j'évoquais précédemment, qui est dotée d'une compétence spécifique sur l'intelligence artificielle.

Nous voulons procéder en deux temps. D'abord, en développant des cas concrets d'utilisation de l'intelligence artificielle avant d'aller plus loin dans sa généralisation : nous avons lancé un appel à projets, qui a eu plus de succès que nous ne le pensions, pour que les administrations proposent des exemples d'utilisation de l'intelligence artificielle. Nous avons sélectionné vingt et un projets. En voici quelques exemples : la détection du cabanage illégal dans les zones protégées de l'Hérault, l'amélioration de la veille sur la sécurité économique ou l'identification des différences de jurisprudence de la Cour de cassation. Ces projets sont très concrets.

L'idée, c'est que ces projets soient abondés par le fonds pour la transformation de l'action publique, qui est doté de 700 millions d'euros – ces sommes ne sont pas uniquement consacrées à l'intelligence artificielle, mais permettent tout de même de financer de nombreux projets y ayant trait. Il faut, à la fois, juger des secteurs où l'investissement est le plus utile, décider comment faire monter à bord les agents publics, puisqu'il est question de les accompagner dans l'utilisation de ces outils, et imaginer dans les mois et années à venir un déploiement plus massif de ceux-ci.

Je le redis, ces outils permettent, dans de nombreux cas, d'alléger la pénibilité du travail des agents publics.

M. le président. La parole est à Mme Noëlle Rauscent, pour la réplique.

Mme Noëlle Rauscent. Merci de votre réponse ! J'espère que parmi les vingt et un projets – vous en avez évoqué quelques-uns – certains concernent l'agriculture.

L'agriculture, et notamment l'élevage, a particulièrement besoin de transformations et d'innovations pour évoluer dans le monde actuel.

M. le président. La parole est à M. Jean-Marie Mizzon.

M. Jean-Marie Mizzon. En novembre 2018, le Gouvernement présentait les grandes lignes de sa stratégie de recherche en matière d'intelligence artificielle, à laquelle seront consacrés 665 millions d'euros d'ici à 2022.

Le Gouvernement entendait notamment augmenter les financements de doctorants en intelligence artificielle et le nombre de ces derniers, qui était d'environ 250. Il projetait également de créer 40 chaires via un appel à candidatures national et international. Sur ce point précis, où en sommes-nous ? Ce programme, qui a le grand mérite d'exister, ne semble pas à la mesure de la compétition internationale qui fait rage – presque tout le monde ici le reconnaît, et vous-même en avez convenu en y intégrant la stratégie européenne.

De notre côté, nous sommes pleinement conscients que des machines autonomes pourraient demain prendre le contrôle de nos existences, utiliser nos données comme bon leur semble pour, par exemple, nous exclure de la société ou renforcer une élite. Les machines ont désormais des capacités « d'apprentissage profond » : elles peuvent tirer des points communs ou des règles statistiques d'une immense quantité de données. Elles reconnaissent ainsi une image ou un son, orientent un véhicule ou une personne.

Dans ces conditions, pourquoi ne pas s'engager davantage ? Les Français le comprendraient aisément et rejoindraient M. Villani, notre médaille Fields, quand il dit : « Il y a […] un travail d'éducation à faire pour défendre la responsabilité humaine, éviter que des algorithmes surestimés ne renforcent des discriminations, et définir le meilleur partage des tâches entre humains et machines. »

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Monsieur le sénateur, deux minutes, c'est trop court pour répondre à toutes vos questions ! Je m'attarderai sur le premier sujet, qui concerne la stratégie de recherche, puisque je n'ai pas eu l'occasion de la détailler auparavant.

Le programme national de recherche présenté par le Président de la République a quatre objectifs : constituer un réseau national attractif pour les acteurs de la recherche en intelligence artificielle ; mettre en place des outils pour réaliser cette recherche académique ; recourir à des mesures incitatives pour développer la recherche partenariale entre le privé et le public ; et, enfin, augmenter le nombre de doctorants et de chaires – vous avez cité les sommes que nous y investissons.

La mise en oeuvre du plan avance très bien. Les instituts interdisciplinaires d'intelligence artificielle, dits 3IA, sont les grands pôles sur lesquels une partie de l'effort sera concentré : il s'agit, je le rappelle, de Grenoble, Paris, Toulouse et Nice, et aujourd'hui ouvrait d'ailleurs l'institut Prairie de Paris.

Ces instituts ont été mis en place ; ils concentreront les compétences scientifiques interdisciplinaires, en particulier par le déploiement, dans un premier temps, de 120 chaires d'enseignement supérieur, lesquelles seront portées à 150. Les 40 chaires que vous avez évoquées sont des chaires supplémentaires, qui sont en dehors de ces pôles spécifiques. Au total, ce sont donc près de 200 chaires qui sont consacrées à l'intelligence artificielle. C'est ce qui me permet de dire que nous progressons.

Sur le programme doctoral, l'appel à projets de l'Agence nationale de la recherche a reçu 30 propositions correspondant à une demande de plus de 450 thèses. Ce programme doctoral spécifique en intelligence artificielle dotera les établissements de recherche de supports budgétaires équivalant au montant de la rémunération minimale de 200 contrats doctoraux.

Vous pouvez le constater, monsieur le sénateur, le lancement de la mise en place de la stratégie de recherche est très satisfaisant. Il s'agit maintenant de prolonger et de porter plus loin notre effort. Je vous propose de discuter en aparté du deuxième point que vous avez abordé, lequel mérite davantage que dix secondes de réponse !

M. le président. La parole est à M. Cédric Perrin.

M. Cédric Perrin. L'intelligence artificielle ouvre pour nos armées de nouvelles perspectives. Elle fait figure d'enjeu de souveraineté de premier ordre. Elle a pour particularité, en matière de défense, d'être tirée par le secteur civil, et est emblématique de l'inversion des circuits d'innovation traditionnels.

Dans ce contexte singulier, les usages de l'intelligence artificielle dans le domaine militaire doivent impérativement donner lieu à un effort de formation et de programmation.

Trois questions semblent s'imposer.

La première concerne l'enjeu crucial de formation des armées et de l'ensemble des corps.

La cellule de coordination de l'intelligence artificielle de défense annoncée cet été est un mouvement positif, qui permettra de développer une réelle expertise de métier. En parallèle de cette dynamique, comment l'État compte-t-il répondre aux besoins de formation aux nouvelles technologies, induits par l'intelligence artificielle, de l'ensemble de nos forces armées sur le terrain ?

La deuxième question a trait aux collaborations de recherche comme enjeu de compétitivité.

L'objectif est de faire entrer la défense dans les écosystèmes de la recherche publique française, à la fois, par la formation et par la recherche appliquée. Afin de gagner du temps pour développer de meilleures technologies, quelle logique de décloisonnement de la recherche militaire l'État a-t-il prévu afin d'absorber et de collaborer avec les institutions publiques bénéficiant de financements importants en termes d'innovation ?

La troisième question porte sur la valorisation croisée des innovations civiles et militaires.

Les investissements alloués à la recherche de défense sur l'intelligence artificielle permettront-ils de capter des technologies de rupture dans le domaine civil ? À l'inverse, des résultats importants de la recherche publique pourront-ils être classifiés facilement, afin de les protéger temporairement ? Enfin, dans quelle mesure ces découvertes de recherche publique pourront-elles bénéficier à nos entreprises françaises ?

Ne répétons pas l'erreur commise avec les télécommunications militaires que nous n'avons pas su utiliser dans le domaine civil pour développer la 5 G !

M. le président. La parole est à M. le secrétaire d'tat.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Il va de soi que, s'agissant d'une technologie aussi importante pour l'industrie et la souveraineté que l'intelligence artificielle, les applications de défense font partie des applications prioritaires.

La ministre des armées a eu l'occasion, il y a quelques mois, de présenter le projet de son ministère en matière d'intelligence artificielle. Cet effort est substantiel puisque, sur les 1,5 milliard d'euros consacrés par l'État à ce domaine, 400 millions d'euros le sont par le ministère des armées.

Par exemple, 200 personnes se consacrent aujourd'hui spécifiquement à Rennes aux questions d'intelligence artificielle pour les armées. La feuille de route repose sur quatre principes que je ne ferai que citer : gouverner la donnée, travailler sur le cloud de défense qu'est le projet Artemis – c'est une question importante en termes de souveraineté –, concevoir des calculateurs convergés, et augmenter le travail commun entre privé et public.

J'ai travaillé sur le sujet avec Florence Parly, mais il est évident que nous devons faire encore des progrès, pour que les start-up de l'intelligence artificielle, souvent civiles ou duales, fondées par des chercheurs français soient davantage financées par des crédits de défense. Ceux-ci sont aujourd'hui fléchés selon des principes plus traditionnels, avec une grande part de subventions qui ne correspondent pas au modèle de développement de ces start-up.

Nous avons présenté, il y a quelques jours, le Next 40, c'est-à-dire les 40 pépites technologiques françaises dont on espère qu'elles pourraient devenir des licornes. Je ne crois pas qu'une seule d'entre elles ait été financée par le ministère de la défense. Cela est étonnant si l'on regarde les pratiques, par exemple, des États-Unis ou de la Chine.

Nous devons améliorer notre capacité à financer des innovations duales. On pouvait encore lire aujourd'hui dans un important quotidien économique français un article évoquant ce point. La ministre des armées est parfaitement consciente du problème, sur lequel nous pourrons, je le pense, progresser dans les mois qui viennent.

M. le président. La parole est à M. Cédric Perrin, pour la réplique.

M. Cédric Perrin. Merci de votre réponse, monsieur le secrétaire d'État. Concernant les 40 entreprises que vous avez citées, il est important de mettre en avant la création récente de l'Agence de l'innovation de défense, l'AID, qui devra chercher de nouveaux talents dans nos régions. Car l'innovation ne se fait pas qu'à Paris ! Nous avons proposé, dans un rapport que je viens de rendre avec mon collègue Jean-Noël Guérini, de mettre en place des réservistes de défense pour capter cette innovation.

Autre point que je me permets d'aborder, celui de l'éthique. Mon collègue Joël Guerriau a évoqué cette question, et vous lui avez fort bien répondu. Aujourd'hui, il y a de nombreuses idées arrêtées sur la question de l'intelligence artificielle. Dans le domaine de la défense, il est nécessaire d'ouvrir rapidement le sujet de l'éthique, pour mettre un terme à certaines idées fausses.

M. le président. La parole est à Mme Sylvie Robert.

Mme Sylvie Robert. La série Black Mirror imagine une société dystopique où l'usage intensif et dévoyé de l'intelligence artificielle conduit à des comportements parfois proches de la bestialité qui érodent le lien social et affectif entre les individus. Elle nous conduit à questionner notre rapport éthique à l'intelligence artificielle et à réfléchir à l'utilisation qui en est faite. Implicitement, elle souligne que l'intelligence artificielle n'est ni bonne ni mauvaise en soi ; c'est bien son usage qui détermine sa légitimité, ainsi que son apport au bien public.

Récemment, un mécanisme de reconnaissance faciale sur la voie publique a été expérimenté pour la première fois en France. De même, une région a manifesté son souhait de tester la reconnaissance faciale par biométrie à l'entrée de lycées. Il est à prévoir que la volonté des collectivités territoriales d'expérimenter ces nouvelles technologies, par-delà la reconnaissance faciale, va probablement s'intensifier à l'avenir.

Naturellement, les enjeux d'ordre public pèsent énormément dans leur décision. Pour autant, le recours à des dispositifs fondés sur l'intelligence artificielle ne peut être anarchique. En contrepoint des problématiques sécuritaires se posent des questions majeures en termes tant de respect des droits fondamentaux que de souveraineté numérique.

Par conséquent, il est essentiel de fixer démocratiquement une méthodologie et un cadre à l'emploi de ces technologies par la puissance publique. C'est précisément ce cadre qui déterminera leur degré d'acceptation par la population.

D'un point de vue juridique, à l'inverse des caméras fixes ou des caméras-piétons, un flou certain demeure sur les usages et les finalités qui peuvent être poursuivis par la reconnaissance faciale et les technologies à venir. Une réflexion sur une éventuelle modification législative et réglementaire paraît, pour le moins, s'imposer.

Aussi, monsieur le secrétaire d'État, mon interrogation est assez simple : entendez-vous ouvrir un véritable débat public sur l'utilisation de la reconnaissance faciale et, plus globalement, sur l'ensemble des technologies futures ayant un impact sur la vie privée, auxquelles pourraient d'ailleurs recourir les collectivités ? Par ailleurs, envisagez-vous de mieux encadrer juridiquement leur usage ?

L'équilibre à trouver entre impératif sécuritaire, libertés individuelles et utilisation éthique de l'intelligence artificielle est particulièrement subtil et important ; il nous faut, je le crois, en discuter démocratiquement.

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. J'insiste sur ce que j'ai déjà dit : il ne faut pas présenter uniquement les risques de l'intelligence artificielle. Il faut que nous soyons capables, avec nos acteurs industriels, de créer des champions de l'intelligence artificielle, sinon nos acteurs ne se développeront pas, et les Français utiliseront des produits américains ou chinois.

Sur le sujet que vous évoquez, notamment celui de la reconnaissance faciale, un travail très intéressant a été mené récemment par le député Didier Baichère, qui proposait – et le Gouvernement est prêt à aller en ce sens – de fixer un cadre juridique plus « clair » pour les expérimentations en matière de reconnaissance faciale. Ainsi, les collectivités territoriales pourraient tester des dispositifs dans le cadre d'une supervision mieux définie. Il faut avoir en tête l'ensemble des éléments, c'est-à-dire rester sur la ligne de crête que j'évoquais entre les impératifs économiques et les impératifs de protection de la vie privée.

Je peux affirmer que le Gouvernement est tout à fait prêt à avancer dans cette direction, qui consiste à définir un cadre juridique clair et protecteur, éventuellement pour mieux permettre des expérimentations.

Évidemment, la question se pose également au niveau international – nous devons avancer sur ce sujet – et au niveau européen.

La Commission européenne a annoncé vouloir produire, dans les cent premiers jours de son mandat, une réglementation sur l'éthique de l'intelligence artificielle, notamment sur la reconnaissance faciale. Nous serons vigilants au respect de cette ligne de crête, entre innovation économique et protection des citoyens, mais je pense que c'est le bon échelon pour intervenir.

En effet, pour revenir à la politique commerciale, que j'évoquais précédemment, nous devons pouvoir innover tout en respectant nos valeurs et, le cas échéant, empêcher les produits n'ayant pas été développés conformément à celles-ci de pénétrer sur notre marché.

M. le président. La parole est à M. René-Paul Savary.

M. René-Paul Savary. On l'a bien vu, le déploiement de l'intelligence artificielle se traduira par des comportements nouveaux dans nombre de secteurs économiques, mais – la question a été posée – il y aura peut-être aussi un revers douloureux, au travers de destructions massives d'emplois, certaines tâches pouvant de plus en plus être réalisées par des robots ou des agents intelligents, et non plus par des humains.

En effet, avec l'intelligence artificielle, les robots ne remplacent plus le travail humain seulement dans les usines, mais également, désormais, dans les emplois de services. Or ceux-ci représentent 75 % de l'emploi en France.

Dans le cadre de la délégation sénatoriale à la prospective, ma collègue Marie Mercier et moi-même menons des travaux destinés à anticiper les changements majeurs que la robotisation pourra entraîner dans les emplois de services. De nombreux secteurs sont concernés – la banque, l'assurance, la santé, le secteur social, l'enseignement, le transport ou encore la sécurité – et il nous faut éviter les différents scénarios catastrophes, qui peuvent revêtir plusieurs visages.

Le premier, qui n'est sûrement pas le plus probable, consiste en un déploiement de l'intelligence artificielle aboutissant à la destruction massive d'emplois. Selon un deuxième scénario, peut-être plus sournois, l'intelligence artificielle serait capable de réaliser des tâches de plus en plus complexes, et de s'adapter et d'analyser plus vite que nous ; dans ce cas, les emplois peu ou faiblement qualifiés, voire les emplois intermédiaires, seraient alors massivement touchés.

Mes questions sont les suivantes, monsieur le secrétaire d'État. Avez-vous identifié les activités et les métiers les plus menacés par le déploiement de l'intelligence artificielle ? Quelle est la stratégie du Gouvernement à cet égard ? Quel accompagnement proposer aux employés peu qualifiés des secteurs de services, qui vont devoir monter en gamme ? Quelles actions envisagez-vous pour diffuser une culture de l'adaptabilité au travail, en France ?

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Nous avons déjà eu l'occasion d'aborder le sujet et j'ai indiqué que les projections, en matière de créations et de destructions d'emplois – vous l'avez bien dit –, sont aujourd'hui assez peu claires quant au résultat final.

Ce qui est certain, c'est que certains métiers fortement répétitifs – vous avez parlé de la banque, on peut aussi penser à la distribution ou à certains secteurs industriels – sont effectivement menacés par l'intelligence artificielle, qui traite très bien les tâches répétitives. Cela concerne aussi des métiers plus élevés, dans lesquels il y a beaucoup de données à traiter ; je pense par exemple au métier d'avocat, qui peut être fortement menacé par l'intelligence artificielle, puisque ce métier consiste pour une part à repérer des schémas dans de très grandes bases de données.

Il nous faut donc prévoir la transition ; tel est l'objet de la GPEC, la gestion prévisionnelle des emplois et des compétences, sur laquelle nous sommes mobilisés.

En effet, nous sommes confrontés à une aberration : d'un côté, des métiers sont menacés, mais, d'un autre côté, certains emplois, et non pas seulement des emplois d'ingénieur, sont non pourvus. Ainsi, il y a aujourd'hui 80 000 postes dans le numérique en France, et il y en aura 200 000 en 2022, soit 900 000 à l'échelon européen – 900 000, rendez-vous compte ! –, et, je le répète, il ne s'agit pas que du métier d'ingénieur. Il y a certes des tensions sur le métier d'ingénieur, mais il y en a aussi sur les métiers de technicien et d'opérateur.

La question à se poser est donc celle de la formation. Un certain nombre de cadres doivent être définis à l'échelon national, mais cela doit aussi être traité localement, bassin d'emploi par bassin d'emploi, y compris dans la ruralité. Il se crée aujourd'hui, quasiment partout en France, des emplois liés au numérique et, encore une fois, pas seulement des emplois d'ingénieur ; néanmoins, encore faut-il être capable d'identifier les populations menacées d'ici à trois ans ou cinq ans. Cela permettra de mettre ensuite en place les formations pertinentes – souvent, elles existent déjà et, généralement, ce n'est pas l'argent qui pose problème, mais il faut brancher les bons tuyaux –, afin d'organiser cette période de transition.

C'est donc aux acteurs sur le terrain – c'est la proposition que nous ferons dans les mois qui viennent – de se saisir du sujet, qui est profondément local.

M. le président. La parole est à Mme Nadine Grelet-Certenais.

Mme Nadine Grelet-Certenais. Je remercie également le groupe du RDSE de l'organisation de ce débat, qui est d'une actualité brûlante, en raison notamment des débats sur le projet de loi d'orientation sur les mobilités ; je pense en particulier à l'article 20 de ce texte, qui porte sur les conditions de travail des travailleurs de plateforme.

Ayant organisé ici même, en juin dernier, avec mes collègues Monique Lubin et Olivier Jacquin, un colloque sur la problématique du travail numérique et les risques de formation d'un « cyberprécariat » dépourvu de droits sociaux, je souhaite attirer votre attention, monsieur le secrétaire d'État, sur l'imminence d'une crise sociale profonde, liée à l'expansion du travail numérique, et rebondir ainsi sur l'excellente question de mon collègue Franck Montaugé.

Le récent numéro de l'émission Cash Investigation a opportunément confirmé nos craintes sur la destruction de la citoyenneté sociale des travailleurs, chère au regretté Robert Castel.

En effet, par leur modèle de développement, les sociétés multinationales que nous connaissons bien – Uber, Amazon, Google, et autres – prospèrent sur un vide juridique, que votre gouvernement entretient. Ce vide juridique permet à ces entreprises de ne pas payer de cotisations sociales patronales, en faisant croire aux autoentrepreneurs recrutés qu'ils sont indépendants. Le Conseil national du numérique, le CNNum, l'a confirmé récemment : ces travailleurs sont plus dépendants d'un algorithme que d'une véritable relation humaine.

Pis, tous les systèmes d'exploitation – sans vouloir faire de mauvais jeu de mots – de l'intelligence artificielle reposent sur du travail humain. Des microtâches sont réalisées en Asie, en Afrique et en Europe – en France même – par ce qu'Antonio Casilli appelle les « travailleurs du clic », des travailleurs du numérique sous-payés et complètement invisibles pour le droit du travail. Et tout cela au service de la machine, de l'intelligence artificielle, qui dévoile ainsi son vrai visage.

Il nous faut donc réfléchir à une fiscalité qui permettrait d'imposer les plateformes sur le fondement du travail invisible de ces usagers, et à un dispositif pour rémunérer ces derniers. En effet, la fiscalité est aussi une question de souveraineté.

Au regard de l'augmentation du tâcheronnage numérique, allez-vous changer de braquet, et imposer à ces entreprises un cadre beaucoup plus strict et protecteur, afin d'enrayer cette évolution inquiétante du travail ? Quelles solutions allez-vous mettre en oeuvre pour lutter contre cette para-subordination, qui nie les droits de ces travailleurs ?

Il s'agit d'un enjeu politique et sociétal de premier plan.

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Ce sujet mériterait évidemment plus de deux minutes, mais il occupe beaucoup le quotidien de ma collègue Muriel Pénicaud.

Pour répondre rapidement, il y a évidemment un sujet de transformation et de fragilisation des rapports sociaux, mais il y a aussi un gisement d'opportunités ; dans certains quartiers, l'économie ubérisée a créé de l'emploi et a permis à des gens de se rapprocher de l'emploi. De toute évidence, il faut poser un cadre – on ne peut pas être dans le non-droit total –, mais il faut adapter ce cadre.

Prenons un exemple, celui du livreur de Deliveroo ; il y a une différence entre la personne qui en fait son travail, et qui se trouve, de fait, quasiment dans une relation de salariat, et l'étudiant – comme mon beau-frère, par exemple – qui le fait une heure par soir pour gagner un peu d'argent. Il n'est pas question de traiter ces deux situations exactement de la même manière, que ce soit pour la formation, pour les droits et pour la représentation.

Je pense fondamentalement qu'une partie de la solution – encore une fois, cela mériterait plus de temps – réside dans la représentation syndicale ou para-syndicale. En effet, le bon équilibre sera trouvé dans la tension, parfois dans le rapport de force, qui est nécessaire dans les rapports sociaux.

Le cabinet de Muriel Pénicaud travaille actuellement sur la manière de représenter ces travailleurs et sur la capacité qu'auront les syndicats à négocier avec les employeurs. Je le répète, cela ne peut pas être la même chose pour quelqu'un dont c'est le travail à temps plein ou à quasi-temps plein, et pour quelqu'un qui fait cela comme une activité supplémentaire.

C'est dans cette dialectique, pour répondre très brièvement, que se situe une partie de la réponse.

M. le président. La parole est à M. Jean-Pierre Leleux.

M. Jean-Pierre Leleux. Le rapport d'avril 2018 de notre collègue député Cédric Villani a largement ouvert le débat public et politique, sur l'urgence qu'il y a, en France et en Europe, à amplifier considérablement les moyens et le soutien au développement de la recherche dans le domaine de l'intelligence artificielle. Il s'agit, vous l'avez dit, d'un enjeu majeur pour notre indépendance et notre souveraineté futures.

Cédric Villani tente de nous convaincre qu'il n'est pas trop tard pour entrer dans le jeu de la compétition mondiale ; j'en accepte l'augure, et je me félicite des moyens, même s'ils restent insuffisants, débloqués par le Président de la République – un milliard et demi d'euros – pour mettre un coup de pression et encourager le développement de l'intelligence artificielle en France et en Europe.

Les questions qui se posent sont évidemment très nombreuses ; j'isolerai trois aspects : éthique, juridique et culturel.

Bien sûr, le rapport a cherché à proposer, avec humilité, est-il précisé, les fondements d'un cadre éthique pour le développement de l'intelligence artificielle et du débat dans la société. Quand nous parlons d'éthique ou de valeurs, chez nous, nous nous appuyons sur l'histoire culturelle française et européenne, et nous avons tendance à penser que ces valeurs sont universelles. C'est évidemment loin d'être le cas ; les valeurs ne sont pas du tout les mêmes en Europe, aux États-Unis et encore moins en Chine.

Déjà, des voix s'élèvent pour affirmer que, si nous sommes trop rigides dans notre conception de l'éthique et des valeurs, cela bridera les initiatives des chercheurs, et nous courons alors le risque de prendre un retard concurrentiel, sur le plan technique, par rapport à d'autres pays.

Comment définir, selon vous, les bornes de l'acceptable, voire de l'exigence de notre éthique ? Comment trouver, dans un contexte de concurrence scientifique mondialisée, l'équilibre entre, d'une part, le respect de notre éthique et, d'autre part, l'avancée scientifique de pays qui n'ont pas la même interprétation des valeurs que nous ?

Ma deuxième question concerne l'accompagnement juridique de l'intelligence artificielle, et tout particulièrement celui de la responsabilité civile et morale des actes provoqués par l'algorithme. Jusqu'où faire confiance à la décision du matériel porteur de ces algorithmes ? N'y a-t-il pas des domaines qui comportent des limites, au-delà desquelles la décision humaine doit reprendre la main ou le relais de la décision ?

M. le président. Veuillez conclure.

M. Jean-Pierre Leleux. Ma dernière question concernait la culture ; j'y reviendrai dans ma réplique.

M. le président. Je crains qu'il ne vous reste plus du tout de temps pour une réplique, mon cher collègue…

La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Je serai très heureux, monsieur le sénateur, de vous répondre hors micro sur votre dernière question.

Sur votre premier point, je suis persuadé qu'il n'est pas trop tard. C'est un peu le dernier wagon qui part, mais on peut encore monter à bord. Pourquoi suis-je persuadé qu'il n'est pas trop tard ? Parce que nous avons la matière première : les cerveaux. La question se pose de savoir comment les retenir et comment faire en sorte qu'ils trouvent ici le terreau leur permettant de se développer et de créer leurs entreprises, mais ce serait bien plus compliqué si l'on ne les avait pas.

Il n'est donc pas trop tard, mais il faut les retenir et en former plus. Pour revenir à ce que disait précédemment le M. le sénateur Ouzoulias, on manque effectivement de personnes compétentes, il faut en former plus. C'est pourquoi nous avons l'objectif de doubler le nombre de formations ; il y avait 18 masters en intelligence artificielle, voilà deux ans ; il y en a 34 aujourd'hui. Cela avance.

Sur la question des valeurs, je pense avoir en partie répondu tout à l'heure. Il faut trouver la ligne de crête, être capable de développer nos propres champions sans abandonner nos valeurs. Ce n'est jamais facile et il n'y a pas de règle préconçue qui s'applique.

Cela dit, il faut, au minimum, libérer les expérimentations – je le disais tout à l'heure à propos des collectivités territoriales et de la reconnaissance faciale –, dans des cadres très limités et très stricts.

En outre, il faut ne pas être naïf ; c'est le sujet de la politique commerciale que j'évoquais tout à l'heure. Ainsi, dès lors que nous aurons fixé le cadre et les valeurs intangibles pour nous, on ne pourra pas permettre à des pays qui développent des algorithmes en contradiction avec nos valeurs de concurrencer nos entreprises, lesquelles ne pourront évidemment pas être compétitives.

Quant à la question juridique, il est difficile d'y répondre aujourd'hui. Beaucoup de questions se posent ; s'il y a un accident impliquant une voiture pilotée par l'intelligence artificielle, qui est responsable ? Une partie de la réponse résidera dans l'expérimentation. Il faut rendre celle-ci possible, parce que beaucoup de réponses se dégageront. Aujourd'hui, en tout cas, il est difficile de vous donner une réponse claire et précise.

M. le président. La parole est à Mme Brigitte Lherbier.

Mme Brigitte Lherbier. Je m'inscrirai dans la continuité du propos de mon collègue Jean-Pierre Leleux.

C'est avec un oeil de juriste que j'ai décidé d'aborder le débat que nous avons aujourd'hui.

Le développement des intelligences artificielles fait partie des plus grandes avancées scientifiques de l'histoire de l'humanité. Cette révolution technologique a de plus en plus d'impact dans nos vies quotidiennes, on l'a vu. Imaginer les applications matérielles des intelligences artificielles peut susciter l'émerveillement, mais il nous faut aussi examiner des cas pratiques. Vous venez de l'aborder, monsieur le secrétaire d'État, étudier, par le prisme du droit, un accident de la route impliquant un véhicule autonome est tout aussi intéressant.

Il faut se poser des questions pragmatiques, simples, pour cerner les problèmes juridiques, par exemple en droit de la responsabilité. En tant que législateurs, nous devons nous interroger sur la place que prendront les intelligences artificielles dans notre droit. Qui devrait-on considérer comme pénalement responsable, lors d'un accident grave causé par une voiture autonome ? Le conducteur ? Le propriétaire ? Le constructeur ? L'informaticien ? Ou encore l'auteur des algorithmes ?

On considère aujourd'hui que le conducteur doit toujours être en mesure de prendre le contrôle de sa voiture. Il serait donc en théorie responsable en cas d'accident, mais qu'en serait-il si les véhicules devenaient totalement autonomes ?

La même question pourrait se poser pour les intelligences artificielles prédictives en matière militaire. Qui sera responsable en cas d'échec d'une mission ? Le décideur ou le robot ? J'ai entendu ces questionnements pour la première fois au forum international de la cybersécurité, organisé à Lille, chaque mois de janvier depuis vingt ans, par la gendarmerie nationale. Les militaires ne veulent pas dépendre de l'incontrôlable, ils veulent rester maîtres de toute leur stratégie.

La technologie évolue désormais si vite que nous nous devons de prendre les devants. Gouverner c'est prévoir, n'est-ce pas ?

Monsieur le secrétaire d'État, envisagez-vous cet aspect juridique, ce regard destiné à encadrer de la loi ?

M. le président. Il faut conclure, ma chère collègue.

Mme Brigitte Lherbier. Le Sénat est là pour travailler sur le sujet ; sachez-le, monsieur le secrétaire d'État, nous sommes prêts.

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. J'essaierai de vous répondre le plus précisément possible.

Une petite remarque, tout d'abord : il est vraisemblable qu'il y aura moins d'accidents quand toutes les voitures seront autonomes ; il est intéressant de le préciser. (Sourires.) Du reste, quasiment tous les accidents d'avion – ce n'est pas le cas pour le Boeing 737 MAX – sont aujourd'hui liés à une erreur humaine.

En France, vous le savez, les expérimentations de circulation de véhicules autonomes sur la voie publique sont permises depuis 2015, dans un cadre strict ; je ne reviens pas sur les détails.

En matière de responsabilité civile, le droit commun s'applique ; cette analyse a été validée par le Conseil d'État. En matière pénale, pour ce qui concerne le code de la route, des adaptations sont nécessaires. La loi Pacte a précisé les règles de responsabilité pénale pour les expérimentations – cela fait le lien avec la question précédente.

Ainsi, le conducteur n'est pas responsable pendant les périodes où le système de délégation de conduite est activé ; en cas d'accident, si une faute a été commise dans la mise en oeuvre du système de délégation, l'expérimentateur est pénalement responsable d'un délit d'atteinte involontaire à la vie ou à l'intégrité de la personne. Pour l'avenir, un régime permanent doit être élaboré par ordonnance, dans le cadre de l'habilitation prévue à l'article 12 du projet de loi d'orientation des mobilités.

J'ajoute un élément moins technique : la question que vous posez est extrêmement liée, dans le cas de l'intelligence artificielle, à la certification. C'est l'un des plus grands défis des industriels, car, pour une partie des algorithmes ou des techniques utilisées, on ne sait pas expliquer pourquoi l'intelligence artificielle a pris telle ou telle décision. Un des véritables sujets devant nous – c'est une question juridique, sociale et industrielle – réside dans la capacité à mettre en place des certifications.

Ce point est au coeur d'un des grands défis que veut relever l'État dans le cadre de l'agence pour l'innovation de rupture. Nous aurons l'occasion d'en rediscuter, mais il est très important que le Parlement se penche sur le sujet de la responsabilité, en ayant en tête cette idée d'expérimentation et de ligne de crête à trouver entre innovation et protection.

M. le président. La parole est à Mme Florence Lassarade.

Mme Florence Lassarade. Les outils d'intelligence artificielle dans le domaine de la santé se développent depuis plusieurs années, avec notamment l'aide au diagnostic en imagerie ou en matière de chirurgie. La France possède de nombreux atouts, grâce à d'importantes compétences scientifiques, une base médico-administrative solide et, prochainement, une infrastructure numérique, avec la plateforme des données de santé, le Health Data Hub, qui permettra de développer l'intelligence artificielle en santé.

Cela dit, il faut regarder plus loin, car les évolutions sont rapides. Les géants de la technologie numérique, les Gafama – Google, Apple, Facebook, Amazon, Microsoft, Alphabet – cherchent à se diversifier, et à conquérir le secteur de la santé. Ils disposent d'une puissance financière largement supérieure à celle des nations.

Les Gafama sont arrivés dans le domaine de la santé avec une dynamique d'influence et de diffusion de valeurs qui ne sont pas à proprement parler humanistes. Leur avance industrielle peut avoir des conséquences sur les modalités de diffusion de l'intelligence artificielle et de la robotisation en santé.

À titre d'exemple, l'entreprise Verily Life Sciences, filiale d'Alphabet, donc de Google, a lancé la Baseline Study, qui collecte des données phénotypiques sur 10 000 volontaires en quatre ans, en collaboration avec les universités de Stanford et Duke. Entre 2013 et 2017, Alphabet a déposé 186 brevets dans le domaine de la santé.

En France, les données de santé sont et resteront protégées, mais des collectes de données se font via des applications ou des objets connectés, et ces données sont transmises à des entreprises privées sans aucun contrôle. D'autre part, des utilisateurs français pourraient à l'avenir demander à importer une solution d'intelligence artificielle élaborée à l'étranger et non autorisée en France.

Sachant que ces entreprises ne respecteront pas forcément les règles éthiques en vigueur en France et en Europe, il est évident qu'il faut organiser un contre-pouvoir au développement des Gafama dans le secteur de la santé.

Monsieur le secrétaire d'État, comment faire en sorte que les Gafama ne mettent pas la main sur les données de santé des Français ? Quelle stratégie envisagez-vous de mettre en oeuvre pour préserver le système de santé français face aux géants américains ?

M. le président. La parole est à M. le secrétaire d'État.

M. Cédric O, secrétaire d'État auprès du ministre de l'économie et des finances et du ministre de l'action et des comptes publics, chargé du numérique. Madame la sénatrice, vous soulignez un sujet extrêmement important, dans lequel il faut avoir une approche tant défensive qu'offensive.

Aujourd'hui, nous avons un cadre assez protecteur des données de santé, mais, je le disais tout à l'heure, dans le cadre du numérique – c'est particulièrement vrai dans le secteur de la santé –, les usages s'imposent.

Nous pourrions donc nous retrouver dans cette situation, assez aberrante : nous interdirions la recherche sur les données des Français ; les Chinois l'autoriseraient chez eux et développeraient des champions ayant des algorithmes permettant de mieux soigner ; et, demain, quand vous aurez le choix entre – pardon de le dire très trivialement – vivre cinq ans de plus en donnant l'accès à vos données et garder celles-ci, mais avoir une espérance de vie un peu réduite, votre choix sera assez rapide…

Voici quel est l'enjeu pour la France, aujourd'hui : nous avons un atout – nous possédons l'une des cinq plus grandes bases de données de santé du monde –, donc il faut faire en sorte, dans un cadre protecteur de la vie privée, de mettre ces données à la disposition de la recherche et d'un certain nombre d'industriels.

De cette manière, c'est nous qui développerons ces champions et ces systèmes. Je pense profondément que les entreprises ont une identité et que, comme c'est le leader qui fixe la norme, il faut faire en sorte que ce leader soit français et européen. Ainsi, on en revient toujours à cette ligne de crête entre innovation et protection, dans un cadre où l'usage s'imposera in fine par rapport à la protection de la vie privée, car on choisira toujours la santé aux dépens de la protection de données.

Autre problème : il faut faire en sorte que ces algorithmes fonctionnent pour les Européens. En effet, on pourrait se retrouver dépendants d'algorithmes chinois ou américains, élaborés sur le fondement de phénotypes ou de problématiques, respectivement, chinois ou américains, et fonctionnant donc moins bien pour des Européens.

Ma réponse sur ce sujet absolument passionnant est trop courte, mais il faut à la fois avoir une attitude défensive et offensive, et faire en sorte que ce soit nous qui développions ces champions, afin d'avoir tant les soins que la valeur créée par ces entreprises.


Source http://www.senat.fr, le 8 octobre 2019

Rechercher