Sarah Amos (États-Unis)
Chef de Produit chez Humane Intelligence, Experte Confiance et Sécurité, Ex-Twitter

Sarah Amos est une professionnelle chevronnée à la croisée des chemins entre technologie, médias et gestion de produits, forte de plus de dix ans d'expérience en sécurité et confiance en IA. Elle est actuellement chef de produit chez Humane Intelligence , où elle dirige des initiatives visant à améliorer la sécurité et la fiabilité des systèmes d'IA.
Parallèlement, Sarah dirige Soma Labs, un cabinet de conseil indépendant qui conseille les startups et les scale-ups sur l'élaboration de stratégies visant à renforcer la confiance et la sécurité des utilisateurs autour des technologies d'IA. Ses analyses stratégiques ont été déterminantes pour aider les organisations à s'y retrouver dans le paysage complexe de l'éthique de l'IA et de la confiance des utilisateurs.
Auparavant, Sarah a travaillé en étroite collaboration avec l'équipe Trust and Safety de Twitter en tant que chef de produit pour Civic Integrity, développant des fonctionnalités pour atténuer la manipulation de la plateforme, la désinformation et les abus pendant les cycles électoraux mondiaux.
Sarah a passé plus de huit ans chez Dataminr, une start-up spécialisée dans l'IA qui aide les entreprises à identifier les risques émergents pour leurs marques, leurs collaborateurs et leurs actifs. Elle y a fondé et dirigé le département R&D, pilotant la stratégie de détection de contenu Corporate Risk de Dataminr Pulse, axée sur la protection des dirigeants, la sécurité des actifs physiques et les cyberrisques pour des entreprises du Fortune 500, dont Apple, Morgan Stanley et UnitedHealth.
La carrière de Sarah a débuté dans le journalisme, lui offrant une perspective unique sur l’intégrité de l’information qui continue d’éclairer son approche de la gestion des produits.
Lors du sommet AI ON US, Sarah est un membre à part entière de l'équipe Trust and Safety et de l'équipe Creative Sprint, apportant sa riche expérience aux efforts de collaboration visant à favoriser le développement responsable de l'IA.