Category Archives: Conférence

Marguerite Yourcenar – La Voix d’un texte

Lectures de Marguerite Yourcenar par Marie-Sophie Ferdane et commentées par Anne-Yvonne Julien.

Marie-Sophie Ferdane, comédienne et metteuse en scène, découvre le théâtre pendant l’année de son agrégation de lettres à l’Ecole normale supérieure. Elle est pensionnaire de la Comédie-Française depuis 2007. Elle a fait ses débuts professionnels avec Richard Brunel dans Dom Juan revient de guerre d’Ödön von Horváth, puis avec Claudia Stavisky dans Le Songe d’une nuit d’été de William Shakespeare. Dirigée ensuite par Christian Schiaretti pour L’Opéra de quat’sous de Bertolt Brecht, dans lequel elle a joué puis chanté Polly Peachum à Paris, sous la direction musicale de Jean-Claude Malgoire. Elle est aussi actrice de cinéma, on a pu la voir notamment dans Les Acteurs anonymes réalisé par Benoît Cohen.

Anne-Yvonne Julien, ancienne élève de l’ENS, enseigne la littérature française à l’Université Paris X. Elle travaille sur les écritures de soi au XXe siècle, en particulier sur les textes de Marguerite Yourcenar et de Claude Simon. Elle a publié un ouvrage de synthèse, Marguerite Yourcenar ou la signature de l’arbre, (PUF « Ecriture » 2002), des essais Foliothèque, L’OEuvre au Noir (Gallimard, 1993, réed. 2003) et Nouvelles orientales (2006). Elle a également coordonné un volume d’hommage pour le centenaire de naissance de l’écrivain, Du Mont-Noir aux Monts-Déserts, Les Cahiers de la NRF, Gallimard (2003).

PHILOSOPHIE : L’INFINI MATHÉMATIQUE

Dominique Pradelle est professeur de philosophie allemande, Maître de conférences à l’Université Paris IV Sorbonne. Il est spécialisé dans l’étude de la philosophie allemande contemporaine, la métaphysique, la phénoménologie et la logique. Ancien élève de l’École normale supérieure, Dominique Pradelle est reçu 4e à l’agrégation en 1987 avant d’obtenir en 1996, à l’Université Paris X Nanterre son doctorat de philosophie pour sa thèse portant sur les problèmes fondamentaux de la phénoménologie husserlienne de l’espace. Conférence donnée dans le cadre du colloque Louis Couturat organisé par Mathesis et la République des Savoirs (USR 3608)

The Deep Learning Revolution: What Does It Tell Us About Our Understanding of Intelligence?

The surprising success of learning with deep neural networks poses two fundamental challenges: understanding why these networks work so well and what this success tells us about the nature of intelligence and our biological brain.
Our recent Information Theory of Deep Learning shows that large deep networks achieve the optimal tradeoff between training size and accuracy, and that this optimality is achieved through the noise in the learning process. In this talk, I will mainly address the relevance of these findings to the nature of intelligence and the human brain.

Naftali Tishby (Hebrew University of Jerusalem)

Simons Institute

Les Formes élémentaires de la vie religieuse d’Émile Durkheim

En France, ce que Wolfgang Lepenies appelle la troisième culture – ces sciences sociales coincées entre le littéraire et le scientifique – est paradoxalement assez peu reconnue, la culture générale semble, en effet, trop souvent pouvoir s’en dispenser. C’est un paradoxe dans la mesure où la France est, avec Comte, Tocqueville et Durkheim notamment, l’un des berceaux de ce pan considérable de la pensée. Sise entre les rues Emile Durkheim et Raymond Aron, la Bibliothèque Nationale de France a décidé de lancer un cycle dédié aux grands livres qui dessinent une bibliothèque idéale des sciences sociales. Il s’agit d’inviter à lire et relire quelques-uns de ces grands ouvrages en compagnie d’un chercheur contemporain, manière de replacer ces livres dans l’histoire des idées mais aussi, et surtout, de souligner leur pertinence contemporaine, les usages qui peuvent en être faits.
Cycle proposé par Sylvain Bourmeau.
Par Bruno Karsenti, philosophe, directeur d’études à l’EHESS.

Simulation Moléculaire

La thermodynamique est l’étude de la relation entre les différentes propriétés du système à l’équilibre. C’est avant tout une science expérimentale, qui est très précieuse d’un point de vue pratique dans de nombreux domaines tels que la biologie, la chimie, la géologie, la physique et les sciences de l’ingénieur. La thermodynamique fut développée dans les années 1800, lorsque la théorie atomique de la matière ne faisait pas l’unanimité. Avec le développement de la théorie atomique au début des années 1900, on attribua à la thermodynamique une interprétation et une base moléculaire. Ainsi est née la thermodynamique statistique, permettant de lier les moyennes de grandeurs moléculaires à des grandeurs macroscopiques. La passage du micro au macro qui met en jeu un nombre incommensurable, le nombre d’Avogadro (6.02 1023 molécules) ne peut être réalisé que par le biais de méthodes probabilistes. Il en résulte que les grandeurs observées ne sont en fait que des valeurs moyennes obtenues à partir d’un certains nombres d’états microscopiques qu’il faut pouvoir échantillonner de manière conséquente.

La simulation moléculaire permet justement cet échantillonnage. En conjuguant ainsi les techniques de simulation moléculaire et la thermodynamique statistique il est possible de déterminer de nombreuses propriétés macroscopiques comparables aux valeurs expérimentales. Cette confrontation permet de valider les modèles et les algorithmes utilisés. Une fois validées, les simulations permettent de donner une interprétation microscopique des grandeurs macroscopiques calculées. En outre, ces techniques de simulation peuvent, dans certains cas, prendre le relais sur les mesures expérimentales pour être prédictives. De nos jours la simulation moléculaire est donc devenue un outil de choix et incontournable pour sonder la matière depuis l’électron jusqu’ au matériau massif et est considérée comme la troisième voie scientifique après la théorie et l’expérience. Durant cet exposé je présenterai un bref historique ainsi que les bases de la simulation moléculaire dite « classique » que j’illustrerai à travers des exemples tirés de travaux de recherche récents.

Conférence IPR 2018 04 24 : Aziz GHOUFI

Pen Testing A City

by Greg Conti & Tom Cross & David Raymond

How would you take down a city? How would you prepare for and defend against such an attack? The information security community does a great job of identifying security vulnerabilities in individual technologies and penetration testing teams help secure companies. At the next level of scale, however, things tend to fall apart. The information security of cities, the backbone of modern civilization, often receives little to no holistic attention, unless you count the constant probing of nation state aggressors. The information technology infrastructure of cities is different from other entities. Cities feature complex interdependencies between agencies and infrastructure that is a combination of federal, state and local government organizations and private industry, all working closely together in an attempt to keep the city as a whole functioning properly. Preparedness varies widely. Some cities have their act together, but others are a snarl of individual fiefdoms built upon homegrown technological houses of cards. If you can untangle the policy and politics and overcome the bureaucratic infighting to create workable leadership, authorities, and funding, you are still faced with an astronomically complex system and an attack surface the size of, well, a city. Our talk identifies these necessary precursor steps and provide a broadly applicable set of tools to start taming and securing, such an attack surface.

In this talk, we first explore a notional city, deconstruct it layer by layer, and use these insights to suggest a comprehensive methodology for reverse engineering any city and deriving its attack surface. We complement these insights with a broad analysis of proven capabilities demonstrated by hacker and information security researchers as well as known capabilities of criminal and nation-state actors applicable to city-level attacks. Next, we develop a coherent strategy for penetration testing as an approach to highlight and then mitigate city-level vulnerabilities. Finally, we conclude with a wide-ranging set of approaches to complement pen testing efforts, including exercises and collective training, metrics and a maturity model for measuring progress, and specialized city-level attack/defend ranges. You’ll leave this talk fearing for the survival of your respective country, but also possessing a toolkit of techniques to help improve the situation. By better securing cities we have a glimmer of hope in securing nations.

Évolution des génomes et développement

Leçon inaugurale de Denis Duboule prononcée le 8 février 2018.
Plus d’informations : https://www.college-de-france.fr/site…

L’étude du développement d’un organisme vivant de sa conception à sa naissance ou de l’évolution de ses parcours embryonnaires a fait ces dernières années des bonds extraordinaires, grâce notamment aux outils de la génétique et de la génomique. Ces avancées ouvrent de larges perspectives en termes de compréhension des mécanismes du vivant mais aussi de possibilités de réparer voire de modifier, allant jusqu’à imaginer un homme futur génétiquement augmenté. Pourtant, la compréhension de la manière dont notre patrimoine génétique est mis en oeuvre reste encore très partielle et la perception de ces évènements par la société est confuse.

Reconnaissant l’émergence rapide de ces avancées scientifiques et les bouleversements qu’elles impliquent, en terme de paradigmes, d’approches, de croisement des disciplines et de nouveaux horizons, le Collège de France a nommé Denis Duboule, l’un des chercheurs les plus reconnus dans le domaine de la génétique du développement, titulaire d’une nouvelle chaire internationale : Évolution des génomes et développement.

Directeur du laboratoire de Morphogenèse Moléculaire à l’Université de Genève et du laboratoire de Génomique du Développement à l’Ecole Polytechnique fédérale de Lausanne, Denis Duboule et ses équipes travaillent sur les mécanismes de régulations génétiques qui sous-­‐tendent le développement des mammifères, incluant des interfaces avec la génétique médicale, la biologie de l’évolution et la régulation de la transcription.