Lien 
vers le site de l'ENS
ÉCOLE NORMALE SUPÉRIEUREPARIS
Lien vers l'accueil
lancer la recherche

» Conférences d’après mars 2011 : nouveau site

 

Séminaire général du Département de physique

Organisé par : Emmanuel Dormy (CNRS) et Robson Ferreira (CNRS)

Le Séminaire général du département de physique de l’ENS a lieu le jeudi à 13h30 en salle de conférence IV, 24 rue Lhomond, Paris 5e. Il est organisé
en 2010-2011 par Fabrice Gerbier et Pierre Lesaffre,
en 2009–2010 par Emmanuel Dormy et Robson Ferreira,
en 2008–2009 par Emmanuel Dormy et Robson Ferreira,
en 2005–2007 par Jacques Dupont-Roc et Christian Glattli,
en 2004–2005 par Edith Falgarone et David Bensimon,
en 2003–2004 par Edith Falgarone et Vincent Hakim,
en 2002–2003 par Vincent Hakim et David Guéry-Odelin,
Fédération de laboratoires dont les activités recouvrent un grand nombre de thèmes de recherche, le Département de physique a pour missions l’enseignement de la physique aux niveaux des second et troisième cycles ainsi que la formation à la recherche par l’encadrement de thèses de doctorat.
La physique à l’École normale supérieure s’est développée depuis la guerre autour de personnalités scientifiques exceptionnelles. Yves Rocard, Alfred Kastler, Jean Brossel, Pierre Aigrain ont formé chacun dans leur domaine une école riche et féconde, regroupant autour d’eux l’un des ensembles de recherche les plus dynamiques du pays. Cet ensemble s’est constitué en cinq laboratoires gérés conjointement par l’ENS et le CNRS, dont les thèmes se sont diversifiés.

Ressources en ligne

  • L’énergie nucléaire : quelles filières pour le futur ? (le 13 mai 2004) — Sylvain David
    Les prévisions de la consommation d’énergie d’ici 2050, ainsi que le devoir de réduire les émissions de gaz à effet de serre, nous obligent à envisager ce que pourrait être une énergie nucléaire contribuant de façon significative à la demande mondiale dans les décennies qui viennent, et qui pourrait représenter jusqu’à 25% de la consommation mondiale d’énergie primaire d’ici la fin du siècle.
  • Physique de la respiration (le 27 mai 2004) — Bernard Sapoval
    Les notions physiques mises en oeuvre dans la compréhension du mécanisme de la respiration concernent la compréhension du rôle des effets inertiels dans l’écoulement de l’air dans l’arbre bronchique et la possibilité de renormaliser le mouvement brownien de diffusion gazeuse jusqu’à l’échelle d’une alvéole pulmonaire.
  • Atoms in a cold gentle environment (le 3 juin 2004) — Tsutomu Yabusaki
    Séance en anglais du séminaire général du département de physique.
  • L’évolution du langage : modèles mathématiques et observations de robots (le 17 juin 2004) — Luc Steels
    La question fascinante de savoir comment le langage et les langues sont apparues et évoluent culturellement bénéficie de plus en plus des outils et des concepts développés dans les sciences de la complexité. Par exemple, l’existence d’attracteurs dans la dynamique, l’auto-organisation, les couplages non-linéaires ou la théorie des jeux, utilisés en biologie et en physique, sont de plus en plus pertinents et sont au centre de contributions majeures faites par les physiciens. Cette présentation donne un aperçu de la portée de tels modèles dans l’étude de l’évolution du langage. Elle montre également des résultats d’expériences dans les lesquelles des groupes de robots autonomes créent collectivement et par auto-organisation des systèmes de communication qui ont des propriétés similaires à celles des langues humaines.
  • Les impostures intellectuelles : avec les sciences humaines (le 14 octobre 2004) — Jean Bricmont
    Le séminaire expliquera l’évolution des idées postmoderne, en évaluant de façon critique les différents arguments en présence, et tentera de préciser la situation actuelle du débat autour des Impostures intellectuelles.
  • Résilience de l’oscillateur circadien révélé dans des bactéries individuelles (le 25 novembre 2004) — Irina Mihalcescu
    Les bactéries sont les plus simples des organismes vivants capables d’une vie individuelle, de se reproduire, de se nourrir, de se déplacer, de se défendre et même de s’organiser lors d’une attaque ou dans des conditions de survie extrêmes. On sait actuellement que certaines molécules, (protéines ou ARN) sont présentes dans la cellule en nombres discrets et finis. Tout processus de production, dégradation ou régulation doit donc être traité en termes stochastiques. Des mesures récentes ont confirmé que la bactérie fait face à un bruit stochastique important. Comment, la cellule, gére-t-elle ce bruit stochastique, pour arriver tout simplement à réaliser les fonctions cellulaires ?
  • Cooperation in social dilemmas [...] (le 6 janvier 2005) — Christoph Hauert
    Cooperation in social dilemmas: effects of spatial structure and the evolutionary origin of cooperators and defectors
    Understanding the evolution of cooperation represents a major challenge in evolutionary biology and behavioral ecology. The essence of the evolutionary conundrum is captured by social dilemmas, in which groups of cooperators do better than groups of defectors, yet defecting individuals outcompete cooperators in mixed groups. The social dilemma is relaxed if the benefits of cooperative acts not only accrue to others but also to the cooperator itself.
  • Les boîtes quantiques de semi-conducteurs (le 13 janvier 2005) — Robson Ferreira
    Les boîtes quantiques de semi-conducteurs : le prix du confinement quantique dans une matrice cristalline
    Les boîtes quantiques constituent des systèmes électroniques de référence en physique des semi-conducteurs. Cela est dû en premier lieu au fort confinement des porteurs de charge dans une région de dimensions nanométriques et au spectre électronique discret qui en résulte. Ces caractéristiques spectrales sont au coeur de nombreuses recherches, allant de l’opto-électronique à l’information quantique, dans lesquelles l’image de macro-atome artificiel est couramment utilisée pour désigner ces systèmes. Cette image est néanmoins très réductrice.
    En effet, un ensemble considérable de résultats récents impose l’adoption d’une image plus élaborée des boîtes quantiques, mettant en avant aussi bien le réseau périodique sous-jacent à leur potentiel confinant, que la nécessité d’une prise en compte réaliste de leur environnement proche. Nous discuterons l’effet de ces degrés de liberté additionnels internes et externes aux boîtes quantiques sur leur réponse optique, ainsi que les conséquences qui en découlent.
  • Matière noire, trous noirs et formation des galaxies (le 20 janvier 2005) — Françoise Combes
    Si nous savons aujourd’hui que l’univers est plat, en expansion accélérée, et que la matière est constituée de baryons pour 15 % et de matière noire non baryonique à 85 %, nous ne savons toujours pas comment les galaxies, comme la Voie Lactée par exemple, se sont formées dans cet univers.
  • Mythes et paradoxes de la mondialisation (le 27 janvier 2005) — Daniel Cohen
    Comprendre la mondialisation exige que l’on renonce à l’idée que les pauvres sont exploités ou abêtis. La mondialisation fait voir aux peuples un monde qui bouleverse leurs attentes et qu’elle s’avère incapable de réaliser. Les menaces que la mondialisation fait peser sur l’équilibre écologique de la planète ne doivent pas dispenser de comprendre les forces qu’elle déchaîne aujourd’hui.
  • Spherical Crystallography: Virus Buckling and Grain Boundary Scar (le 17 février 2005) — David R. Nelson
    Ordered states on spheres require a minimum number of topological defects. The difficulty of constructing ordered states was recognized by J. J. Thomson, who discovered the electron and then attempted regular tilings of the sphere in an ill-fated attempt to explain the periodic table.
    One set of solutions to this Thomson problem requires that regular triangular lattices be interrupted by an array of at least 12 five-fold disclination defects, typically sitting at the vertices of an icosahedron. If the sphere radius is much larger than the particle spacing, the energy associated with these defects is very large.
    This energy can be lowered, however, either by buckling, as appears to be the case for large viruses, or by introducing unusual finite length grain boundary scars. The latter have been observed recently for colloidal particles adsorbed onto water droplets in oil. Examples of topography-induced defect configurations for liquid crystals coating spheres and torii will be discussed as well.
  • Solitons, dipoles and the great tsunami of 2004 (le 15 mars 2005) — Costas Synolakis

  • Vers la cellule artificielle (le 17 mars 2005) — Albert Libchaber
    Nous présentons quelques résultats relatifs à la réalisation d’une cellule artificielle, étape importante dans la modélisation de l’origine de la vie. Pour cela, un extrait cellulaire est confiné dans une vésicule formée de phospholipides. Un programme génétique simple permet d’échanger énergie et matières premières avec l’environnement, la membrane devenant fonctionnelle. La production de protéines continue sur presque une semaine.
    Nous préparons, comme étape future difficile, l’auto-reproduction programmée de la vésicule.
    Dans tout ce projet, nous nous inspirons de la théorie de J. von Neumann sur les self-reproducing automata.
  • L’aventure des gaz ultra-froids (le 24 mars 2005) — Christophe Salomon
    Claude Cohen-Tannoudji a remis, avant l’exposé, à Christophe Salomon le prix des Trois Physiciens

    Nous décrirons quelques expériences anciennes et récentes réalisées au laboratoire sur les atomes ultra-froids. Grâce à la mise au point de mécanismes de refroidissement toujours plus perfectionnés, il est possible de diminuer de douze ordres de grandeur la température d’échantillons atomiques en dessous de la température ambiante.
    Le caractère bosonique ou fermionique des particules conduit alors à une variété de phénomènes quantiques macroscopiques, comme la condensation de Bose-Einstein d’atomes, de molécules, ou de paires de Cooper. Nous montrerons également comment le contrôle du mouvement des atomes est mis à profit dans les horloges atomiques au sol et dans l’espace. Nous discuterons les performances actuelles de ces dispositifs et les tests de physique fondamentale qu’ils permettent.
  • Optique adaptative liquide (le 31 mars 2005) — Bruno Berge
    Nous avons découvert il y a quelques années que les propriétés de mouillage d’un liquide sur une surface pouvaient dépendre de la tension électrique entre le liquide et la surface. La forme de la goutte liquide peut donc être modifiée électriquement.
    Cette découverte est à l’origine de la technologie développée par la société Varioptic que nous avons fondée et qui s’est spécialisée dans la fabrication de lentilles optiques liquides pour petite caméra (comme celle incorporée dans un téléphone portable).
    Dans ce séminaire, après une description des questions scientifiques qui se posent dans le développement de telles optiques, je présenterai mon expérience de chercheur-entrepreneur.
  • The neural code of the retina (le 7 avril 2005) — Marcus Meister
    The retina is a powerful neural circuit at the back of the eye, whose task is to process the visual scene before transmission to the brain. I will present an overview of what we understand about this circuit, guided by the following questions :
    * What computations does the retina perform ?
    * How are these implemented by the hardware of neurons and their connections ?
    * And how do these computations serve the biological needs of the animal ?
  • Coherence and Phase Measurements in Quantum Dots (le 14 avril 2005) — Mordehai Heiblum
    The Characteristics of electronic systems are usually studied via performing conductance measurements. Since the conductance of a system is proportional to the absolute value of the transmission coefficient of electrons through the system, coherence and phase information is being generally lost.
    I will report on measurements of coherence and phase of systems serving as artificial atoms, namely, zero dimensional like electron puddles, called quantum dots as the number of electrons increases.
    I will show results that verify that the transmission phase is a highly sensitive parameter to physics taking place in the quantum dots, revealing properties that are not observed via conductance measurements.
  • Microfluidique : usine à gaz ou usines à gouttes ? (le 19 mai 2005) — Armand Ajdari
    Le domaine de la microfluidique a connu un grand développement dans les années 1990, lorsque des techniques de fabrication issues de la micro-électronique ont été utilisées pour essayer de réaliser des laboratoires-sur-puce (essentiellement des réseaux de microcanaux de dimensions transverses de l’ordre de la dizaine de microns), à des fins d’analyse biologique ou chimique. Cette quête a conduit à des travaux combinant problématiques fondamentales et appliquées, à l’interface de la physique, la chimie, la mécanique des fluides, le génie chimique et les biotechnologies.
    Un sous domaine en grande expansion depuis quelques années, est celui de l’utilisation de systèmes diphasiques dans de tels microsystèmes, conduisant à la fabrication et à la mise en circulation de gouttes au sein d’un fluide porteur. J’essaierai de présenter quelques grandes voies d’application de cette idée : mesures de cinétique chimique, criblage à haut débit, synthèse contrôlée, fabrication d’objets colloidaux.
    Ces applications suscitent l’intérêt de nombreux industriels. Néanmoins, nombre de problèmes restent à résoudre pour la mise en parallèle et le contrôle nécessaire à la réalisation de véritables usines-sur-puce, dont la solution impliquera sans doute de nouveau une approche interdisciplinaire.
  • On direct communication between brain cells and semiconductor chips (le 26 mai 2005) — Peter Fromherz
    The microscopic electrical interfacing of semiconductor devices and living neuronal systems is considered. On the biological side, recombinant ion channels, identified nerve cells from snails and brain tissue from rats are used. The mechanism of interfacing is studied with individual capacitors and field-effect transistors made with simple silicon chips. The approach is extended to chips with thousands of contact sites as fabricated by industrial silicon technology. The goal of the methodical development is the implementation of experimental neurocomputing.
  • La relativité générale et le problème à deux corps (le 2 juin 2005) — Luc Blanchet
    Grâce aux nouveaux détecteurs d’ondes gravitationnelles, VIRGO et LIGO, la théorie de la relativité générale va être confrontée à des observations d’une précision sans précédent.
    L’observation du rayonnement gravitationnel des systèmes binaires compacts dans la phase spiralante précédant leur fusion finale impose en effet la résolution théorique du problème à deux corps en relativité générale. Cela implique que l’approximation utilisée, dite post-newtonienne, soit poussée à un ordre suffisamment élevé pour prendre en compte de nombreux effets relativistes potentiellement détectables.
    La prédiction théorique est utilisée comme patron d’ondes gravitationnelles pour la recherche et l’analyse fine du signal dans le réseau des détecteurs de VIRGO et LIGO.
    Outre la mesure précise des paramètres physiques des binaires compactes, on s’attend à pouvoir effectuer de nouveaux tests de la relativité générale.
  • Les bases biologiques du langage (le 9 juin 2005) — Emmanuel Dupoux
    Parmi les aptitudes humaines, le langage présente à la fois une assise biologique certaine, et des variations culturelles très apparentes.
    Ma recherche s’intéresse aux representations et processus mentaux qui permettent au nouveau-né, partant d’un état non spécifique, d’apprendre la ou les langues parlées dans son environnement. Cette étude est menée à l’aide des techniques classiques de la psycholinguistiques adulte auxquelles s’ajoutent l’étude du nouveau-né et des représentations corticales du langage.
  • Evolution des génomes de vertébrés à partir de leur ancêtre commun (le 16 juin 2005) — Hugues Roest Crollius
    La séquence du génome du poisson Tetraodon Nigroviridis a récemment été obtenue au Génoscope. L’ancrage de cette séquence sur les 21 chromosomes, une première chez les poissons, a permis de prouver que le génome s’est entièrement dupliqué il y a probablement 300 millions d’années.
    Cet évènement a laissé des traces dans la plupart des génomes des poissons modernes. Ces signatures sont particulièrement visibles lorsque l’on compare l’organisation des gènes du poisson avec celle de génomes qui ne se sont pas dupliqués, comme celui de l’homme ou du poulet. Une propriété remarquable du génome de Tetraodon est sa relative stabilité au cours de l’évolution. Elle permet aujourd’hui de reconstituer les paires de chromosomes dupliqués, et par là de remonter à la structure du génome de l’ancêtre commun à tous les vertébrés, c’est-à-dire celui que nous partageons avec les oiseaux et les poissons.
    Bien que l’on ne sache pas grand chose de cet animal (il n’en existe pas de fossile), nous pouvons déterminer avec une bonne précision qu’il possédait 12 chromosomes et quels sont les gènes que ces derniers contiennent.
  • Quantum Foam and Melting Crystal (le 23 juin 2005) — Cumrun Vafa
    The topology and geometry of spacetime is expected to undergo violent quantum fluctuations at a scale known as the Planck scale (10-33 cm). It is shown how this notion arises in the context of simple examples of string theory. Moreover the fluctuations turn out to map to a statistical mechanical problem of a melting crystal.
  • Climat et atmosphère au Quaternaire : les résultats de nouveaux carottages glaciaires (le 6 octobre 2005) — Jean Jouzel
    Depuis une vingtaine d’années, l’étude des glaces de l’Antarctique et du Groenland a été marquée par l’obtention de résultats importants vis à vis de l’évolution passée et future de notre climat, en premier lieu la mise en évidence d’une relation entre climat et gaz à effet de serre dans le passé et la découverte de variations climatiques rapides. Ces résultats s’appuient sur des enregistrements tels ceux obtenus à partir de l’étude du forage de Vostok, qui donne accès à l’évolution du climat de l’Antarctique et à celle de la composition de l’atmosphère depuis 420000 ans, et sur ceux de GRIP et GISP2 (Groenland) qui permettent de décrire précisément le rythme des variations rapides au cours des 100000 dernières années. Les années 2004 et 2005 ont permis d’accroître considérablement l’information disponible à partir des glaces polaires grâce aux forages d’EPICA Dome C (Antarctique) et de North GRIP (Groenland). Nous présenterons les résultats obtenus sur les deux forages dont l’un couvre huit cycles climatiques (800000 ans) et l’autre permet, pour la première fois pour un forage glaciaire de l’hémisphère nord, d’atteindre l’Eémien, la période la plus chaude du dernier interglaciaire, il y a environ 120000 ans.
  • Deux siècles de découvertes sur la capillarité (le 13 octobre 2005) — Yves Pomeau
    En 1805, T. Young et P.H. de Laplace publient à quelques mois d’intervalle les deux articles fondateurs de la théorie de la capillarité. Curieusement, si l’approche de Young est infiniment plus abstraite que celle de Laplace, c’est celle qui est à la base des présentations actuelles dans l’enseignement, après sa mise en forme définitive par Gauss. J’expliquerai en quoi consiste ces approches qui, pour la première fois, introduisent de façon cohérente une force autre que celle de la gravité dans la physique. Je détaillerai un peu le superbe calcul de Laplace de l’ascension capillaire, reliée à une force à courte portée dans les liquides. Cette idée brillante fut critiquée tout de suite par Poisson, puisqu’elle semblait interdire l’équilibre près d’une interface plane. La résolution du paradoxe, due à van des Waals, est à l’origine des développements modernes de la théorie de la capillarité. Comme exemple de ces développements récents, je présenterai les difficultés que l’on rencontre dans les problèmes de mouillage dynamique ( ligne de contact mobile) qui sont un lointain écho du paradoxe découvert par Poisson.
  • Le champ magnétique terrestre : observations et modèles (le 20 octobre 2005) — Emmanuel Dormy
    Le champ magnétique de la Terre a vu sa polarité s’inverser plusieurs fois au cours de son histoire. Depuis quelques années des indices s’accumulent qui peuvent suggérer l’arrivée d’une prochaine inversion. Quels sont ces indices ? Peut-on conclure à une inversion imminente ? Quelles en seraient les conséquences ?, je tenterai d’apporter une réponse scientifique à ces interrogations. Mais surtout je présenterai l’état de nos connaissances sur la question centrale, Comment la Terre génère-t-elle son propre champ magnétique ?, en insistant sur les difficultés qui font qu’une question, en apparence aussi simple, soit encore un problème ouvert.
  • Semiconductor Nanocrystals: Science and Technology (le 3 novembre 2005) — Moungi Bawendi
    Semiconductor nanocrystals that are synthesized using chemical means and that are in the nanometer size range show a wealth of interesting photophysical properties and interesting applications. This talk will cover (1) aspects of their synthesis, processing, and incorporation into more complicated structures; (2) their photophysics, concentrating on multiexciton processes both at the single nanocrystal level and at the ensemble level, and (3) their applications as light emitters in biology and in displays.
  • Des solides de lumière et d’atomes (le 10 novembre 2005) — Antoine Georges
    Des solides de lumière et d’atomes : physique des atomes froids et enjeux actuels en physique de la matière condensée
    Les avancées expérimentales en physique des atomes froids conduisent actuellement à l’émergence d’un nouveau domaine de recherche, à l’interface avec la physique de la matière condensée. En témoignent par exemple l’observation de la phase superfluide d’atomes fermioniques ou celle de la transition de phase entre un superfluide et un isolant de Mott d’atomes bosoniques. En piègeant les atomes dans des potentiels lumineux périodiques, de véritables solides artificiels sont créés, aux paramètres contrôlables, et qui peuvent être étudiés dans des régimes inhabituels en physique du solide (hors d’equilibre, par exemple). Je décrirai quelques exemples illustrant la vitalité de ce domaine de recherche et discuterai quelques grandes questions ouvertes en physique des matériaux fortement corrélés, auxquelles les atomes froids pourraient peut-être permettre d’apporter des réponses.
  • La physique des plasmas de la magnétosphère : les apports de CLUSTER (le 17 novembre 2005) — Laurence Rezeau
    Le projet CLUSTER est un ensemble de quatre satellites identiques mis en ouvre par l’Agence Spatiale Européenne et auquel la France a très largement contribué. Ces satellites, destinés à l’étude de la magnétosphère terrestre et de sa dynamique, permettent pour la première fois de l’ère spatiale d’ analyser quelles sont les variations spatiales (en 3-D) des différents paramètres comme le champ magnétique et quelles sont les variations intrinsèquement temporelles. Cette approche a profondément renouvelé notre manière d’appréhender ce milieu relativement proche de nous et que l’on pouvait croire bien connu.
    Nous présenterons plus spécifiquement le problème de la turbulence en amont de la magnétosphère, dans la « magnétogaine ». Cette turbulence électromagnétique joue très probablement un rôle crucial dans la pénétration des particules du vent solaire à l’intérieur de la magnétosphère et beaucoup de questions restent encore ouvertes à son sujet : quelle est son origine ? quelle est la nature des couplages non linéaires ? quel rôle joue-t-elle dans la reconnexion des lignes de champ ? Ces questions sont d’ordre théorique ainsi qu’expérimental : la théorie de la turbulence est beaucoup moins développée pour les plasmas que pour les fluides neutres car elle induit des difficultés mathématiques qui restent en grande partie à résoudre. Sur le plan expérimental, les mesures faites avec CLUSTER apportent des éléments de réponse très importants permettant, par exemple, d’accéder pour la première fois au spectre en nombre d’onde de la turbulence.
  • Lumière extrême et optique relativiste (le 24 novembre 2005) — Gérard Mourou
    Les intensités extrêmes que l’on peut obtenir aujourd’hui ouvrent la voie à une optique nonlineaire nouvelle: l’optique relativiste. Celle-ci permet l’accélération de particules sur des distances extrêmement courtes ainsi que des rayonnements X, et γ collimatés. En outre il est prédit que l’optique relativiste pourrait nous permettre de comprimer les impulsions laser sur des échelles de temps de l’ordre de l’attoseconde (10-18 s) ce qui permettrait d’atteindre des champs électriques de l’ordre du champ critique (Schwinger).
  • Foams: Linking Geometry and Physics (le 1er décembre 2005) — Sascha Hilgenfeldt
    When a liquid is frothed up and left to drain, the result is a unique material called a dry foam, a collection of polyhedra filling space in an intricate way. Dry foam exists at the boundary between liquids and solids: it flows under external forces once a yield stress has been overcome, it possesses a well-defined average structure as well as a special kind of disorder, and it is a dynamically evolving substance in which both liquid and gas flows alter its physical properties.
    In describing a foam, a knowledge of its structure and of the geometry of the bubbles is of prime importance. We highlight the link between foam geometry and foam physics and observe that the specific connectivity of the continuous phase in foams discovered by Plateau in the 19th century is crucial for the understanding of foam coarsening, the exchange of gas between bubbles. A set of bubbles called Isotropic Plateau Polyhedra is defined for which geometrical properties and coarsening rates can be computed analytically, allowing for specific and accurate predictions.
    We will also touch upon the flow of a foam between parallel plates to illustrate its use as a model for atomistic processes in solids, up to and including material failure. Foams thus emerge as well-controlled versatile systems for modeling the behavior of materials ranging from soft matter and complex fluids all the way to hard condensed matter. The unique benefit of foams is the accessibility of the microscopic scale in the system, i.e. that of a single bubble.
  • Limites quantiques dans les images optiques (le 15 décembre 2005) — Claude Fabre
    Le caractère quantique de la lumière affecte les propriétés classiques des images optiques, même lorsqu’elles sont formées d’un très grand nombre de photons: d’un côté, les fluctuations quantiques de la lumière dégradent inévitablement la qualité des images, mais d’un autre côté la possibilité de créer des corrélations et de l’intrication quantiques entre différents points de l’image ouvre de nouvelles possibilités dont on peut tirer profit lorsqu’on veut extraire de l’information de ces images. On appliquera ces considérations aux problèmes de la résolution ultime en optique, de la mesure de nano-déplacements de faisceaux lumineux, du traitement des images et de la lecture de l’information stockée sur des disques optiques.
  • Einstein’s Clocks, Poincare’s Maps (le 5 janvier 2006) — Peter Galison
    In the standard picture of the history of special relativity, Einstein’s reformulation of simultaneity is considered a quasi-philosophical intervention, a move made possible by his *dis*-connection from the standard physics and technology of the day. Meanwhile, Einstein’s engagement at the Patent Office enters the story as a lowly day job, offering him some technical training but essentially irrelevant to his scientific work. *Einstein’s Clocks* argues that, on the contrary, Einstein’s patent work located him squarely in the middle of a wealth of technological developments, cultural discussions about the meaning of time, and important patents that accompanied the coordination of clocks along railway lines and throughout the cities of central Europe. And Henri Poincare, far from being lost exclusively in the far reaches of mathematics, was at the same time profoundly involved with the use of precision coordinated clocks for long-distance longitude determination. --Indeed, at a crucial moment in the development of his own thoughts on relativity theory he was presiding of over the Paris Bureau of Longitude. By understanding the history of coordinated clocks, Einstein’s and Poincare’s work in relativistic physics shines in a very different light: the "modern" of "modern physics" stood was the intersection point of physics, technology, and philosophy.
  • Nanomagnétisme : de la nanoparticule à la molécules (le 19 janvier 2006) — Wolfgang Wernsdorfer
    L’intérêt pour la frontière entre physique classique et quantique n’a cessé de croître avec le développement rapide des nanosciences, alimenté par la miniaturisation des systèmes physiques. Il est ainsi devenu essentiel de comprendre le lien entre les propriétés classiques à l’échelle macroscopique et les lois quantiques à l’échelle microscopique. Cette exigence est particulièrement importante en nanomagnétisme où de nombreuses applications nécessitent des nanoparticules magnétiques monodisperses.
    On peut citer comme exemple les aimants monomoléculaires, qui sont des molécules individuelles se comportant comme des particules magnétiques monodomaines. En dessous de leur température de blocage, ces molécules possèdent un cycle d’hystérésis de l’aimantation, propriété classique d’un aimant, tout en présentant des propriétés quantiques.
    En mesurant la probabilité de retournement en fonction de la température et d’un champ appliqué perpendiculairement à l’axe facile, nous avons ainsi pu mettre en évidence un effet tunnel entre les niveaux d’énergie fondamentale, et l’existence de ce qui est appelé dans un modèle semi-classique "la phase quantique du spin" ou "phase de Berry" associée au spin magnétique. Cet effet tunnel de l’aimantation peut s’avérer un atout pour certaines applications de ces aimants moléculaires, telles que le calcul quantique et la réalisation de superposition d’états, mais présente également des inconvénients (pour le stockage de l’information, par exemple).
    Ce séminaire sera l’occasion de passer en revue les avancées récentes dans ce domaine de recherche.
  • Rupture et endommagement de matériaux hétérogènes (le 26 janvier 2006) — Elisabeth Bouchaud
    Inclure dans une description statistique les processus locaux qui interviennent lors de la propagation d’une fissure dans un matériau est une étape cruciale pour l’établissement de modèles véritablement prédictifs. L’étude quantitative de la morphologie des surfaces de rupture s’est révélée être un outil précieux de ce point de vue : cette surface est en effet la trace que laisse derrière lui le front de fissure au cours de sa propagation. Or cette morphologie, pour des matériaux très divers, présente des propriétés d’échelle qu’on peut décrire au moyen de deux paramètres : l’exposant de rugosité et la longueur de corrélation, borne supérieure du domaine d’échelle. Si cette échelle de longueur caractéristique dépend du matériau étudié et du mode de chargement, l’exposant de rugosité, lui, est universel.
    Pour rendre compte de ces observations, nous avons proposé de modéliser le front de fissure comme une ligne élastique se propageant dans un champ d’obstacles aléatoirement répartis. Ces modèles, qui décrivent une transition de phase dynamique entre un régime de piégeage de la fissure sur les défauts et un régime de propagation, ne reproduisent que qualitativement les résultats expérimentaux. Leur limitation principale est qu’ils ne tiennent pas compte de l’endommagement que crée la fissure, qui écrante le champ de contrainte, et modifie l’élasticité du front.
    Or l’endommagement existe dans tous les matériaux, y compris dans le verre, qui est pourtant le matériau « élastique fragile » par excellence. C’est ce que montrent nos expériences in situ de microscopie à force atomique : là aussi, comme dans les métaux, la rupture procède par nucléation, croissance et coalescence de cavités d’endommagement ! Nous proposons un modèle qui prend en compte l’endommagement, et reproduit les résultats observés à des échelles inférieures à la taille de la zone endommagée et au-delà.
  • La naissance de la science analytique du mouvement au tournant des XVIIe et XVIIIe siècles (le 2 février 2006) — Michel Blay
    Cette conférence portera sur l’introduction du calcul différentiel et intégral dans le champ de la mécanique et corrélativement sur la construction décisive de l’algorithme de la cinématique. Seront donc abordés les travaux de Newton, de Leibniz, de Varignon et des Bernoulli et mis en perspective la Mécanique Analytique de Lagrange.
  • Comment s’écoulent les fluides complexes ? (le 23 février 2006) — Daniel Bonn
    Un grand nombre de fluides autour de nous sont des fluides qui ne s’écoulent pas selon les lois de Newton et présentent des propriétés physiques spectaculairement différentes des fluides newtoniens. Un exemple pertinent de ces fluides non-newtoniens est le sang : sa résistance à l ’écoulement diminue lorsque la vitesse augmente, ce qui permet au ceour de pousser le sang dans les plus petits vaisseaux. Je présenterai une introduction aux fluides complexes, et montrerai les différents effets non-Newtoniens à l’aide de deux exemples très répandus : les solutions de polymères et les suspensions de particules. Je montrerai également que l’écoulement (ou non) de ces derniers permet de comprendre les caractéristiques des sables mouvants et de certains glissements de terrain.
  • Quantum Shot Noise: From Schottky to Bell (le 2 mars 2006) — Markus Buttiker
    The quantization of charge leads to fluctuations in the current of a conductor known as shot noise. The first observations by Schottky date back almost a century. In contrast to the classical phenomenon investigated by Schottky, in small phase coherent conductors a shot noise can be observed whose origin is quantum diffraction. We discuss electrical two-particle interferometers which have the property that the conductance exhibits no Aharonov-Bohm effect but shot noise correlations are sensitive to an Aharonov-Bohm flux. We show that this is a consequence of orbitally entangled two particle states and that the entanglement can be tested by violating a Bell inequality. We complement this discussion with a proposal for a quantum tomography procedure which reveals the maximum information that can be extracted from shot noise measurements.
  • Amplifier des signaux radio-fréquences quantiques [...] (le 9 mars 2006) — Michel Devoret
    avec la bifurcation d’un système électrodynamique non-linéraire
    Il est maintenant possible de construire et de faire fonctionner un nouveau type d’amplificateur cryogénique basé sur le pompage microonde d’une jonction tunnel Josephson. L’état dynamique macroscopique de la jonction présente en effet un point de bifurcation au voisinage duquel le système amplifie les petits signaux avec un gain qui peut être supérieur à 20dB. L’intérêt d’un tel amplificateur est de présenter un bruit extrêmement faible qui peut descendre au niveau de la limite quantique. Cette dernière est caractérisée par une énergie de bruit égale à un demi-photon du signal radio-fréquence. Nous avons récemment utilisé la sensibilité ce type de dispositif pour mesurer la décohérence d’un bit quantique supraconducteur. La température de bruit ultime d’un système électrodynamique non-linéaire forcé est également reliée à l’effet Unruh, souvent évoqué pour expliquer l’évaporation des trous noirs.
  • Cordes, supercordes, supersymétrie, etc... (le 16 mars 2006) — André Neveu
    Les supercordes sont les "superstars" actuelles des physiciens à la recherche d’une théorie unifiant toutes les interactions et toutes les particules connues. Elles étaient nées dans un contexte physique très différent, et c’est lentement que la découverte de leurs remarquables propriétés a permis de nourrir de tels espoirs. S’il reste probablement beaucoup de chemin à parcourir avant le contact espéré avec l’expérience, elles ont considérablement enrichi le paysage de la théorie quantique des champs dans ses aspects les plus abstraits jusqu’aux mathématiques pures.
  • Techniques de nanofabrication pour la nanophysique (le 23 mars 2006) — Dominique Mailly
    Depuis les années 1970, l’industrie de la microélectronique a développé tout un arsenal de techniques pour diminuer la taille minimale dans les composants afin d’améliorer l’intégration des fonctionnalités et la fréquence de travail. Très vite les physiciens ont compris l’intérêt de ces technologies pour fabriquer des échantillons et explorer ainsi un domaine jusqu’alors inconnu dont les dimensions sont intermédiaires entre le microscopique de la physique atomique et le macroscopique de la physique de la matière condensée conventionnelle : on parle de physique mésoscopique. Les nanotechnologies sont devenues à présents omniprésentes dans de nombreux domaines scientifiques.
  • The formation of the first stars (le 30 mars 2006) — Christopher McKee
    The first stars formed out of pristine gas with initial conditions determined by the Big Bang. These stars created the first heavy elements and began the process of reionizing the universe. They may have produced gamma-ray bursts when they died as supernovae, opening up the possibility that they could be observed directly. The gravitational collapse of the gas that forms the first stars can be described analytically by a theory developed for contemporary star formation. Rotation of the infalling gas has a major effect on the protostar, making it smaller and hotter than in the absence of rotation. The mass of the first stars is set by feedback processes, including photodissociation of H2 by ultraviolet radiation, radiation pressure associated with Lyman alpha photons, the development of an HII region, and photoevaporation of the protostellar accretion disk. The typical mass of the first stars appears to be about 200 solar masses, which is more massive than any star observed in the Galaxy today.
  • The growth, form, and function of micro-organisms (le 6 avril 2006) — Michael Tabor
    The use of exact, nonlinear, elasticity theory to describe large deformations of elastic shells and membranes is applied to the study of the growth and form of various micro-organisms. We consider two problems: (i) the growth of the filamentary hyphae of actinomycetes; and (ii) the structure and function of the rice blast fungus (Magnaporthe grisea). The second problem also calls on the ideas of adhesion theory to estimate the strength of the adhesive used by the fungus to stick to the host surface; and plasticity and fracture theory to (perhaps) understand its ability to drive a penetration peg deep into its host - a mechanism that is responsible for the lost of 10 - 30% of the world’s rice crop each year.
  • L’électronique de spin en marche (le 27 avril 2006) — Claude Chappert
    Les électrons ont une charge et un spin mais, pendant longtemps, charge et spin ont été utilisés séparément. L’électronique classique ignore le spin et déplace les électrons en agissant seulement sur leur charge. Le spin apparaît traditionnellement à travers sa manifestation macroscopique, l’aimantation d’un matériau magnétique, utilisée pour stocker de l’information. Le disque dur est d’ailleurs un des premiers exemples de nanotechnologie "grand public". Mais, sous l’impulsion de plusieurs découvertes récentes, une nouvelle électronique émerge, qui associe contrôle de courants de spins et de charges dans des nouveaux dispositifs intégrables aux circuits haute densité de la microélectronique. Cette "Electronique de Spin" ou "Spintronique" est aujourd’hui en pleine expansion, et les mémoires RAM magnétiques en sont un premier exemple d’application aux circuits intégrés. Nous verrons quelles sont les principales étapes de cette évolution, son potentiel, et ses limites actuelles, en attendant de nouvelles découvertes.
  • Gravitation et Expérience (le 4 mai 2006) — Thibault Damour
    On présentera une revue des tests expérimentaux de la gravitation, et notamment de la théorie de la relativité générale d’Einstein. Les motivations pour raffiner ou étendre les tests existants seront présentées.
  • L’eau, le liquide de la vie, un liquide fascinant (le 11 mai 2006) — Marie-Claire Bellissent-Funel
    L’eau est un liquide unique dont les propriétés sont déterminantes pour les processus de la vie. Dans les systèmes vivants, les phénomènes essentiels ont lieu, en géométrie confinée, dans les cellules vivantes, et à proximité des sites actifs des protéines et des membranes ou à leur surface. La stabilité des systèmes biologiques est contrôlée par le jeu subtil entre les interactions hydrophiles et les interactions hydrophobes. Ainsi l’eau d’hydratation joue un rôle prédominant dans la relation entre la structure, la dynamique et la fonction des systèmes biologiques.
    Au cours de ce séminaire, je présenterai les propriétés structurales et dynamiques de l’eau dans tous ses états (supercritique, surfondu, amorphe), puis celles de l’eau confinée dans des systèmes modèles et à la surface de protéines globulaires solubles. Je montrerai qu’à température ambiante, les propriétés de l’eau au voisinage d’une surface hydrophile sont comparables à celles de l’eau surfondue. Enfin, j’ouvrirai le débat autour de l’hypothétique transition de phase "liquide-liquide" dans l’eau.
  • Interactions between science and technology : the example of Japan (le 18 mai 2006) — Hiroyuki Sakaki
    Being located close to China, one of the four cradles of ancient civilizations, Japan had a fortune of receiving rich cultural and technological stimulations from outside, while keeping her independence and cultural identity for about 2,000 years. Even when Japan had her door closed to the west for 250 years till the late 19th century, writers, artists, ruling samurais, and other professionals succeeded in achieving one of the highest literacy rates and in developing unique traditions, including the superb craftsmanship in fabrics, potteries, and woodblock printings, although activities in natural science stagnated (except in mathematics). As a result, when Japan opened the door again and began to set up her national (imperial) university system, school of science and that of engineering were born almost as twins with equal footings, unlike traditional European universities, where two schools have separate historic roots. It may be one of the reasons that science and engineering communities have established relatively good communications in Japan. In the first part of my seminar, I wish to describe a few specific examples in Japan, where advances in technology have contributed a great deal to the progress of basic sciences, including the “Kamiokande” facility for neutrino physics, the Subaru telescope on Mauna Kea and the electron holographic microscope study of Dr A. Tonomura at Hitachi. In the latter half of my talk, I discuss some examples, where basic science studies and/or exploratory investigations in the forefront of science and technology have brought forth a number of breakthroughs with significant technological impacts. In particular, we describe and examine works on a variety of semiconductor nanostructures, including Leo Esaki’s tunnel diodes and superlattices and recent works on quantum dots and wires.
  • Une nouvelle étape dans la mesure des anisotropies du fond cosmologique : les résultats de WMAP-3-ans (le 1er juin 2006) — Jean-Loup Puget
    Les résultats de WMAP 3 ans conforte le modèle cosmologique dit "de concordance" avec son lot de questions non résolues sur la physique sous jacente. Ces résultats commencent a contraindre les modèle d’inflation. Même si ces résultats restent à un degré de confiance faible lié au signal sur bruit limité ils illustrent la puissance des observations du fond cosmologique micro-onde pour acceder à la physique de l’univers primordial.
    Les nouvelles données WMAP font aussi progresser la question de la reionisation de l’univers elle même liée à celle très ouverte de la nature des premiers objets lumineux. Les instruments de la mission spatiale Planck, qui est la génération suivante dans ces mesures, sont en cours de test et leur performances sont maintenant bien établie. On peut donc estimer de façon beaucoup plus réaliste les progrès que permettront les données Planck sur les questions ouvertes par WMAP.
  • Les boîtes quantiques semiconductrices : des atomes artificiels pour l’optique quantique (le 8 juin 2006) — Jean-Michel Gérard
    Les boîtes quantiques semiconductrices ont fait l’objet d’études très approfondies par spectroscopie optique au cours des dix dernières années. Ces nanostructures se comportent, dans une certaine mesure, comme des « atomes artificiels » et permettent ainsi de reproduire, dans un système solide, des expériences d’optique quantique habituellement réalisées avec des atomes ou des ions isolés. Nous présenterons les principaux résultats obtenus sur un plan fondamental (génération d’états quantiques de la lumière, effets d’électrodynamique quantique en cavité), puis quelques pistes d’application prometteuses dans les domaines de l’optoélectronique et du traitement quantique de l’information.
  • Voiliers et courses : physique et technique (le 22 juin 2006) — Arezki Boudaoud
    Comment un voilier remonte-t-il contre le vent ? Pourquoi les formes des voiliers de course et de croisière ont-elles radicalement changé à travers les âges ? Pourquoi les records de tour du monde à la voile sont-ils deux fois plus rapides qu’il y a vingt-ans ? Ces questions (et d’autres) seront examinées avec un regard de physicien.
    De fait, un voilier flotte à l’interface entre deux milieux, subit les vagues et est propulsé par le vent. Cela impose des contraintes physiques et techniques à l’architecte naval. Dans l’exposé, je donnerai, d’une part, des éléments pour comprendre la marche d’un voilier ; j’expliquerai, d’une autre part, l’évolution de l’architecture, de la régate et de la course au large, en relation avec les progrès scientifiques et technologiques.
  • Dynamique à long terme du Système solaire, Implication sur les paléoclimats Terrestres et Martiens (le 5 octobre 2006) — Jacques Laskar
    Les interactions gravitationnelles entre les planètes induisent des variations de leurs orbites et de l’orientation de leur axe de rotation. Ces variations sont à l’origine de changements climatiques qui ont laissé des traces dans les enregistrements sédimentaires. Sur Terre, les données obtenues grâce aux forages permettent m ême maintenant de reconstituer sur les périodes les plus récentes une échelle de temps géologique par corrélation entre les données sédimentaires et les solutions de l’insolation. Sur Mars, les forages sont encore pour longtemps hors de portée, mais les traces observées à la surface de la planète confirment que la planète a connu de très fortes variations de son orientation dans le passé. Le mouvement chaotique du Système solaire vient compliquer le problème.
  • Dynamique des mousses : deux avancées récentes (le 12 octobre 2006) — François Graner
    On commencera par présenter les mousses liquides (des bulles de gaz entourées d’eau): leurs applications, leurs différents niveaux d’organisation depuis la molécule jusqu’à l’échelle quotidienne, quelques propriétés intéressantes, et les problèmes physiques qu’elles posent.
    Les mousses vieillissent, car les bulles en surpression se vident de leur gaz au profit de celles qui ont une pression plus basse. Le taux de croissance d’une bulle est curieusement lié à son nombre de faces. Or c’est également le cas pour les grains dans un cristal, ou pour des systèmes diphasiques concentrés, dont la mousse est donc un modèle. Cela contraste avec le mûrissement classique étudié par Oswald, dans lequel c’est la taille d’une gouttelette qui détermine son taux de croissance. Des expériences, simulations et théories à 3D ont démontré au cours de ces derniers mois que les mousses finissent par atteindre un régime "invariant d’échelle". Autrement dit, tandis que le volume moyen des bulles croît régulièrement, la distribution des nombres de faces des bulles, et d’autres quantités sans dimension, finissent par atteindre un régime stationnaire universel.
    Par ailleurs, les mousses sont un bon système modèle pour comprendre différents fluides complexes. Capable de reprendre sa forme (comportement élastique) après avoir été soumise à une petite déformation, elle peut en revanche devenir sculptable (comportement plastique) si on la soumet à une grande déformation. Enfin, aux grands taux de déformation elle s’écoule comme un liquide (comportement visqueux). Une soufflerie à mousse permet d’observer un écoulement à 2D autour d’un obstacle, pour des vitesses variant de 0,1 à 1000 mm/s. Ici aussi, c’est l’association étroite entre expérience, théorie et simulation qui a permis des progrès récents, ouvrant la voie à une équation constitutive de ce matériau complexe.
  • Une dualité onde-particule à échelle macroscopique ? (le 19 octobre 2006) — Yves Couder
    Deux des expériences historiques de la mécanique quantique concernent les interférences à travers des trous d’Young. Successivement avec des photons (G.I Taylor 1909), puis avec des électrons, il a été montré que des figures d’interférences pouvaient être obtenues, même lorsque le flux était si faible que les particules passaient une par une à travers le système. Les figures d’interférences n’apparaissent alors que dans l’accumulation d’évènements successifs. On pense habituellement que ce comportement est strictement réservé aux systèmes quantiques. Nous montrerons qu’un comportement très similaire apparaît dans un système de physique classique.
    Cette expérience repose sur un objet nouveau où, sur un substrat liquide oscillant, une goutte rebondissante est associée à l’onde de surface qu’elle émet. Il existe un régime où la goutte et son onde associée deviennent spontanément propagatives et forment ce que nous appellons un "marcheur". Il s’agit d’un objet symbiotique entre la particule et son onde: si la goutte disparait l’onde s’évanouit ; à l’inverse, si l’onde est amortie la goutte s’arrête. Nous discuterons les propriétés des marcheurs et nous montrerons que les interactions qu’ils ont entre eux et avec le monde extérieur sont médiées par leurs ondes. En particulier, lorsqu’un marcheur passe à travers une fente qui réduit l’extension transverse de son onde, il est dévié de façon apparemment aléatoire. Toutefois une figure de diffraction est recouvrée dans l’histogramme de nombreux évènements successifs. De même, à travers deux fentes d’Young une figure d’interférence apparaît. Les différences et similarités de ce système classique avec la situation quantique seront discutées.
  • La dynamo turbulente : résultats récents du groupe VKS (le 16 novembre 2006) — Stéphan Fauve
    L’effet dynamo est une instabilité qui permet d’obtenir de l’énergie électromagnétique à partir de travail mécanique. C’est sur ce principe que repose la production d’une grande partie du courant électrique que nous consommons. En 1919, Larmor propose que le champ magnétique du soleil soit engendré par un mécanisme similaire, à partir du mouvement d’un fluide conducteur. Les premières dynamos induites par des écoulements de géométrie contrainte sont observées en 2000. Plusieurs équipes tentent depuis d’obtenir une dynamo à partir d’un écoulement turbulent non contraint.
    Après avoir rappelé brièvement le principe de l’expérience initialement proposée à cet effet, je vais décrire les résultats récents obtenus par le groupe VKS (CEA/SPEC/DSM, ENS-Lyon, ENS-Paris). Ces expériences ont été réalisées sur des écoulements de sodium liquide au CEA-Cadarache DEN/DTN.
    L’effet dynamo y a été observé récemment dans un écoulement tourbillonnaire turbulent de von Karman. Le nombre de Reynolds cinétique est supérieur à 10^6 et le champ magnétique engendré présente de fortes fluctuations en plus d’une partie cohérente. L’amplitude de l’énergie magnétique locale en fonction du nombre de Reynolds magnétique est en bon accord avec une loi d’échelle proposée précédemment. Les propriétés statistiques des fluctuations permettent d’analyser leur effet sur la bifurcation. Une étude préliminaire montre que différents régimes dynamiques peuvent être obtenus en fonction des paramètres expérimentaux.
    En particulier, des renversements aléatoires du champ magnétique ont été observés et leurs propriétés seront discutées.
  • Mouvement et chant des dunes (le 23 novembre 2006) — Stéphane Douady
    Le sable est un milieu étrange toujours à la frontière entre solide, liquide et gaz. Son étrangeté est souligné par le fait que, bien que matériau commun, et malgré les grands progrès de ces dernières années, il reste du travail à faire pour comprendre comment il se déplace. Les dunes, grands tas de sable formés par le vent, en sont un exemple: emporté par le vent, le sable vole et collisionne (gaz); déposé au sommet, il s’écroule en avalanches (liquide) et s’accumule (solide) pour former la dune. La dune ainsi formée obéit à une sorte de logique interne. Celle-ci peut être bien démontrée dans le cas le plus simple de la Barchane, à l’aide de simulations numériques et d’expériences de laboratoires, qui permettent pour la première fois de reproduire les dunes à l’échelle 1/1000e. On peut ainsi non seulement la voir se déplacer, mais aussi comprendre comment elle est capable d’avancer tout en gardant sa propre forme, par une auto-régulation du flux de sable.
    Ces dunes ont aussi des interactions complexes, qui sont nécessaires pour expliquer les ensembles observés.
    Certaines dunes, chantantes, émettent aussi un son puissant et monotonne lorsqu’il se produit une avalanche. Pourquoi un tel son, alors qu’une avalanche de sable n’en fait d’habitude aucun ? S’il est clair maintenant que le son provient de la synchronisation du mouvement des grains, il reste encore des débats pour expliquer pourquoi ces grains là se synchronisent Et ce qui fait que ce sable est encore plus étrange : il est musical.
  • Evidence for Efimov trimer states (le 30 novembre 2006) — Hanns-Christoph Nägerl
    Three interacting particules form a system which is well known for its complex physical behavior. A landmark theoretical result in few-body quantum physics is Efimov’s prediction of a universal set of weakly bound trimer states appearing for three identical bosons with a resonant pariwise ineraction (1). While Efimov’s scenario has attrackted great interest in many areas of physics, an experimental evidence was missing so far. In our talk we report the observation of an Efimov resonance in an ultracold thermal gas of Cs atoms (2). For Cs atoms the binding energy of a weakly bound dimer state can be magnetically tuned near a Feshbach resonance, giving access to the regime of resonant two-body interaction which can be either attrctive or repulsive. The Efimov resonance occurs in the range of large negative attractive two-body interaction and arises from the coupling of three free atoms to ab Efimov trimer. We observe its signature as a giant three-body recombination loss when the strenght of the two-body interaction is tuned. In addition, we find a scattering resonance in ultracold collisions between atoms and weakly bound dimer molecules as the dimer binding energy is tuned. It is likely that this resonance arises from the coupling of the dimer and an atom to an Efimov trimer, thus providing a direct link between the weakly bound dimer state and the appearance of Efimov states.
    1. V. Efimov (Phys. Lett. f33B, 563 - 1970)
    2. T. Kraemer, M. Mark, P. Waldburger, J. G. Danzl, C. Chin, B. Engeser, A. D. Lange, A. Jaakkola, H.-C. Nägerl, R. Grimm (Nature f440, 315 - 2006)
  • Les surprises de l’électronique quantique subnanoseconde (le 14 décembre 2006) — Bernard Plaçais
    Les effets de la cohérence quantique sur le transport électronique en régime continu ont été largement étudiés aussi bien théoriquement qu’expérimentalement. Il est maintenant bien établi que le transport est bien décrit par la formule de Landauer qui relie la conductance à la transmission des ondes électroniques et au quantum de conductance (e^2 /h). La dynamique de relaxation de la charge dans le régime quantique n’a été abordée que récemment, car elle met en jeu des temps très courts, de l’ordre de la nanoseconde.
    Dans une première partie, nous montrerons que cette dynamique présente des caractéristiques surprenantes remettant peut-être en cause même la formule de Landauer. Nous présenterons la mesure de la résistance de relaxation de charge d’un circuit RC cohérent qui diffère radicalement de la valeur continue : elle est indépendante de la transmission et présente une quantification moitié. Cette mesure peut être interprétée comme une violation des lois de Kirchhof en régime alternatif.
    Dans une deuxième partie nous évoquerons la possibilité de réaliser, dans un conducteur balistique, des expériences d’électronique quantique cohérente résolues en temps à un ou plusieurs électrons. Nous montrerons en particulier comment un « point quantique » peut être utilisé pour réaliser une source d’électrons uniques subnanoseconde.
  • Condensation de Bose-Einstein à l’état solide : Les polaritons excitoniques dans une microcavité (le 21 décembre 2006) — Benoit Deveaud-Plédran
    L’idée d’une possible condensation de Bose à l’état solide a été proposée dès le début des années 60, quand les théoriciens se sont rendus compte des températures extrêmes nécessaires à une condensation standard pour des gaz atomiques. L’avantage dans un solide est que l’on essaie de condenser des quasiparticules telles que les excitons (une paire électron-trou dans un semi-conducteur) qui ont une masse de l’ordre de celle d’un électron, c’est à dire 10^6 fois au moins plus faible que celle d’un atome de rubidium. Les températures de transition deviennent alors en principe abordables (de l’ordre de 1K), le prix à payer étant le désordre inhérent au solide et la durée de vie limitée de ces quasi-particules. De nombreuses publications ont, au cours des 20 dernières années, fait état d’une condensation dans l’état solide, sans que la communauté scientifique ne parvienne à un accord unanime sur la réalité de la démonstration.
    Nous avons décidé de travailler avec des polaritons, quasiparticules constituées pour moitié d’un exciton (donc une paire électron-trou) et d’un photon confiné. Ces particules sont des bosons avec une masse 5 ordres de grandeur plus faible que celle d’un électron. En principe, une condensation à des températures de l’ordre de 100 K est envisageable. Le prix à payer est la durée de vie incroyablement courte de ces quasiparticules : un picoseconde. Ceci devait, pensait-on, rendre impossible une thermalisation adéquate des polaritons.
    Nous démontrerons au cours de notre exposé que, nous obtenons une distribution thermalisée de polaritons à 19K, que cette distribution est bien décrite par une statistique de Bose avec une population macroscopique de l’état fondamental au dessus du seuil. Dans de telles conditions, nous observons une réduction de la largeur spectrale de l’état fondamental accompagnée d’une augmentation de la cohérence temporelle. Une polarisation spontanée s’établit sur l’ensemble du système et enfin, nous démontrons la cohérence spatiale à longue portée attendue au dessus de la transition de phase.
    Nous établissons enfin qu’il existe une deuxième transition vers un laser classique, qui se produit à des densités cent fois plus fortes, et donc pouvons affirmer que nous sommes en présence d’une phase condensée de polaritons dans l’état solide, et non pas d’un laser à semiconducteur classique.
    Travail effectué en collaboration étroite entre l’Université de Grenoble, l’EPFL et l’Université de Cambridge.
    J. Kasprzak, R. André, Le Si Dang (Université de Grenoble)
    M. Richard, S. Kundermann, A. Baas, J. L. Staehli, V. Savon (Ecole polytechnique fédérale de Lausanne)
    J. M. J. Keeling, F. M. Marchetti, M. H. Szymanska, P. B. Littlewood (Université de Cambridge)
  • À la recherche de la "matière sombre" : perspective sur les dix années à venir (le 11 janvier 2007) — Stavros Katsanevas
    Pendant les derniers siècles, les astronomes et les physiciens se sont trouvés au moins deux fois devant une apparente violation d’une loi physique. Ils ont dû choisir entre une reformulation de la loi ou l’hypothèse d’une entité nouvelle (planète ou particule) rétablissant la validité de la loi originelle. Dans les deux cas, la découverte de Neptune et celle du neutrino, la deuxième approche s’est avérée correcte.
    Pour poser dans ces termes le problème de la matière sombre, je vais passer rapidement en revue les indications expérimentales venant de l’astrophysique et de la cosmologie, ainsi que les raisons de cohérence de la physique de particules demandant l’existence de nouvelles formes de matière avec les propriétés requises pour jouer le rôle de la matière sombre.
    Je vais ensuite décrire comment, dans les dix ans à venir, une série de mesures astrophysiques et cosmologiques va étudier avec grande précision le contour et les effets de la matière sombre, tandis qu’une série de dispositifs expérimentaux tentera sa détection. Ce programme de détection couvre un large spectre qui va de la production ou détection directe de la ’matière noire’ dans les accélérateurs et les laboratoires souterrains, à sa détection indirecte dans les observatoires de l’astroparticule ( télescopes et satellites détectant des photons de haute énergie, des rayons cosmiques ou des neutrinos).
    Je vais insister sur la complémentarité des approches et le fait que nos scenarii théoriques, même s’iils pouvaient se tromper, sont suffisamment sophistiqués pour inspirer un programme de recherche cohérent. Ce sont les raisons qui donnent l’espoir que les dix prochaines années seront décisives pour la compréhension de la matière sombre.
  • Accélérer des atomes avec des photons pour mesurer la constante de structure fine (le 18 janvier 2007) — François Biraben
    Les méthodes de refroidissement laser permettent de réduire l’agitation thermique des atomes pour obtenir des vitesses de quelques cm/s. Il devient alors possible d’observer et de mesurer la vitesse de recul qu’acquiert un atome lorsqu’il émet ou absorbe un photon. Cette mesure permet de déduire le rapport h/M_A, où h est la constante de Planck et M_A la masse de l’atome considéré. De là, en utilisant d’autres constantes fondamentales très bien connues (constante de Rydberg, rapport entre la masse de l’électron et celle de l’atome), on peut déduire la constante de structure fine alpha = e^2 / 2epsilon_0 hc.
    Après une présentation générale sur la signification physique de la constante de structure fine et l’intérêt de sa mesure, je passerai en revue les diverses méthodes utilisées pour la déterminer. Je présenterai ensuite l’expérience que nous avons faite pour mesurer précisément le recul d’un atome. Elle repose sur deux méthodes optiques : d’une part la sélection et la mesure très précise de la vitesse d’un nuage d’atomes froids grâce à des transitions Raman (incertitude sur la mesure de vitesse inférieure à 1 µm/s), d’autre part l’accélération des atomes de manière cohérente à l’aide d’une onde stationnaire dans le référentiel des atomes (oscillations de Bloch). La variation de la vitesse des atomes induite par l’accélération cohérente est un multiple entier de la vitesse de recul. La connaissance des vitesses finale et initiale des atomes permet de remonter à la quantité de mouvement transférée et donc à la vitesse de recul de l’atome. Une première série d’expérience a permis de mesurer α avec une incertitude relative de 6,7 × 10^-9 en transférant par accélération cohérente environ 900 fois la vitesse de recul.
    Enfin, je discuterai les évolutions à court et moyen termes de cette expérience et son apport dans le contexte d’une éventuelle redéfinition du kilogramme.
  • Asymétrie matière-antimatière: résultats récents de l’expérience BABAR et perspectives futures (le 25 janvier 2007) — Guy Wormser
    La mesure précise de la différence des propriétés des particules de matière et d’antimatière est l’objectif principal de l’expérience BABAR. Celle-ci étudie depuis 1999 les produits de désintégration d’environ 400 millions de particules et d’antiparticules contenant le quark (l’antiquark) beau, produits grâce aux performances remarquables de l’accélérateur PEP-II (Stanford, USA). Les résultats obtenus jusqu’à présent sont en accord aussi remarquable que paradoxal avec les prédictions théoriques. Toutefois, des pistes existent pouvant conduire à la découverte de nouvelle physique au delà du modèle standard. Les perspectives des projets futurs pour y avoir pleinement accès seront décrites. Ces éléments nouveaux pourraient permettre de mieux comprendre la genèse de l’asymétrie actuelle entre matière et antimatière dans l’Univers. D’autres mécanismes potentiels faisant appel au secteur des leptons seront également évoqués.
  • Brane Worlds : a new paradigm in cosmology ? (le 8 février 2007) — Gary Gibbons
    The last few years have seen a revolution in our ideas and models in fundamental physics, i.e. M/string theory. They lead in a direct way to extraordinary new ideas about the universe and our place in it. In this colloquium, I will give an overview of some of those radical new ideas and the conceptual revolution they have brought about.
  • Vers une observation optique du régime quantique de micro-résonateurs mécaniques (le 8 mars 2007) — Antoine Heidmann
    Les mesures de longueur les plus sensibles sont aujourd’hui réalisées à l’aide de faisceaux lumineux, que ce soit dans le cadre de la détection interférométrique des ondes gravitationnelles, ou à l’aide de cavités optiques de grande finesse. La sensibilité atteinte dépasse le milliardième d’Angström et fait de ces mesures des systèmes modèles pour l’étude des principes de la mesure en mécanique quantique, où les effets d’action en retour sont dus à la pression de radiation exercée par la lumière sur les miroirs.
    Les oscillateurs micromécaniques tels que les MEMS constituent par ailleurs un sujet de recherche extrêmement actif, en particulier pour tenter de mettre en évidence les fluctuations quantiques d’un oscillateur mécanique macroscopique. Jusqu’à présent, les efforts expérimentaux ont porté sur l’utilisation de nanostructures oscillant à des fréquences très élevées de façon à atteindre le régime quantique à une température raisonnablement basse. Les dispositifs de détection sont toutefois encore trop limités pour espérer observer les fluctuations quantiques de position du résonateur.
    La combinaison de mesure optique ultra-sensible et de résonateurs mécaniques de taille micrométrique sur lesquels sont déposés des miroirs fournit une alternative prometteuse. Comme nous l’avons montré expérimentalement, les effets dynamiques de la pression de radiation pourraient même être mis à profit pour refroidir le micro-miroir jusqu’à une température inaccessible par cryogénie.
  • Matériaux d’indice négatif : avec Alice de l’autre côté du miroir (le 15 mars 2007) — Daniel Maystre
    Au cours des dernières années, de nombreux travaux théoriques et expérimentaux ont montré que les métamatériaux, structures métallo-diélectriques périodiques, pouvaient simuler des matériaux homogènes qu’on ne peut trouver dans la nature, par exemple des matériaux de permittivité, perméabilité et indice optique négatifs [1-4]. Limitées au domaine microonde dans un premier temps, les réalisations pratiques touchent aujourd’hui au domaine visible.
    Le caractère quelque peu surprenant des propriétés de ce nouveau type de matériau, et surtout ses fascinantes applications potentielles ont entrainé une suite de controverses et d’annonces médiatisées, dont certaines frôlent la science-fiction. Par exemple, la possibilité de réaliser une lentille parfaite (sans limite de résolution) avec une simple couche planaire de métamatériau remet en cause une des malédictions séculaires de l’Optique@nbsp;: la limite de Rayleigh, qui fixe à une demi-longueur d’onde environ la largeur minimale de l’image d’un point source donnée par un instrument d’optique. Last but not least, des articles très récents annoncent la possibilité de construire avec des métamatériaux une cape d’invisibilité capable de rendre indétectable l’objet qu’elle enveloppe.
    L’exposé s’efforcera de présenter sous un œil lucide et parfois critique ce nouveau champ de recherche, qui pourrait annoncer une prochaine révolution de la nanophotonique. Assez curieusement, la présentation laissera apparaître les troublantes analogies entre les propriétés des métamatériaux et le roman « À travers le miroir, et ce qu’Alice y trouva » de l’écrivain et professeur de mathématiques anglais Charles Lutwidge Dodgson, plus connu sous le nom de plume de Lewis Carroll. Comme Alice, nous serons en quelque sorte amenés grâce aux métamatériaux à faire entrer dans le monde réel l’image virtuelle que tout un chacun peut observer quotidiennement de l’autre côté du miroir.
    References
    1. V.G. Veselago, Sov. Phys. Usp. 10, 509-514 (1968).
    2. J.B. Pendry, "Negative refraction makes a perfect lens", Phys. Rev. Lett. 86, 3966-3969 (2000).
    3. D. Maystre and S. Enoch, Journal of the Optical Society of America A 21, 122-131 (2004).
    4. R.A. Shelby, D.R. Smith and S. Schultz, Science 292, 77-79 (2001).
  • Systèmes élastiques désordonnés / Disordered Elastic Systems : from high Tc superconductors to ferroelectrics (le 22 mars 2007) — Thierry Giamarchi
    Many microscopically different systems can be described at a macroscopic scale as a disordered elastic system. Examples are the vortex lattice in type II superconductors, charge density wave systems, the contact line of a liquid on a substrate or domain walls in magnetic or ferroelectric materials. In these systems, the competition between elasticity and disorder leads to glassy effects quite analogous to more usual glasses, but with also important differences. Understanding this physics is an enormous challenge, that I will discuss, both from a theoretical point of view, but also with very practicall consequences such as transporting a current without loss, or on the stability in time of a magnetic recording.
  • Imagerie cérébrale fonctionnelle : de la mesure à la cognition (le 29 mars 2007) — Line Garnero
    On désigne par Imagerie Cérébrale Fonctionnelle l’ensemble des modalités d’imagerie permettant de mesurer le cerveau en action. Ces méthodes connaissent un essor important aujourd’hui et ont permis d’explorer de façon unique le fonctionnement du cerveau chez l’homme sain ou pathologique. Au cours de ce séminaire, je présenterai les deux principales techniques utilisées : MEG/EEG et IRMf, en détaillant brièvement les phénomènes physiologiques mesurés, les principes de l’instrumentation et l’analyse des données. Divers exemples d’études de fonctions cognitives chez l’homme seront donnés ainsi que la description de nouvelles expériences qui permettent de lire dans le cerveau avec pour application les interfaces cerveau-machine.
  • Beyond bosons and fermions: how to detect and use anyons (le 26 avril 2007) — Dima Feldman
    One of the key features of the quantum Hall effect (QHE) is the fractional charge and statistics of quasiparticles. Fractionally charged anyons accumulate non-trivial phases when they encircle each other. In some QHE systems an unusual type of particles, called non-Abelian anyons, is expected to exist. When one non-Abelian particle makes a circle around another anyon this changes not only the phase but even the direction of the quantum-state vector in the Hilbert space. This property makes non-Abelian anyons promising for fault-tolerant quantum computation. Shot noise experiments allowed a direct observation of fractional charges. Probing exchange statistics is more difficult and has not been accomplished for identical anyons so far. We propose a method of detecting fractional statistics based on the topologically non-trivial setup of the electronic Mach-Zehnder interferometer.
  • Premier bilan de la mission spatiale Cassini/Huygens vers Titan : la découverte d’un nouveau monde (le 3 mai 2007) — Pierre Drossart
    La mission Cassini/Huygens vers le système de Saturne, une collaboration exemplaire entre les agences spatiales NASA, ESA et ASI, a accumulé les découvertes depuis l’insertion en orbite de la sonde Cassini en juillet 2004 et l’atterrissage réussi de la sonde Huygens le 14 janvier 2005. De nombreuses équipes internationales, incluant plusieurs laboratoires français, sont impliquées à tous les niveaux dans cette mission. Je retracerai les enjeux de cette exploration, de la conception dans les années 80 au lancement en octobre 97 jusqu’aux derniers résultats des survols de Titan (une trentaine). Je montrerai aussi qu’au-delà de l’aspect d’exploration, spectaculaire et très médiatisée, des questions scientifiques très fondamentales émergent, sur la physique des milieux extrêmes, de l’exosphère à l’intérieur des satellites de glace et comment des mesures in situ permettent de mieux comprendre l’évolution du système de Saturne, voire de remonter vers l’origine du système solaire.
  • Les publications scientifiques et les archives ouvertes : où va la communication scientifique entre chercheurs ? (le 10 mai 2007) — Franck Laloë
    Historiquement, la communication scientifique s’est d’abord faite par échange de lettres personnelles entre savants, avant que n’émergent progressivement les revues scientifiques des sociétés savantes européennes. Les éditeurs commerciaux sont ensuite entrés dans le jeu.
    Le fonctionnement des revues payantes à comité de lecture que nous connaissons actuellement date de la seconde guerre mondiale. Depuis le début des années 1990 est apparu un nouvel outil de communication scientifique, l’archive ouverte "ArXiv" que tous les physiciens connaissent. Nous avons ainsi en physique et en mathématiques deux circuits de communication en parallèle, celui des revues à comité de lecture payantes et celui d’ArXiv. Ces deux systèmes de communication se sont maintenant adaptés l’un à l’autre. Je discuterai les évolutions prévisibles des revues (diminution des coûts, schémas commerciaux auteur=payeur ou lecteur= payeur) et celles des archives ouvertes (institutionnelle ou disciplinaire, distribuée ou fédérée), ainsi que les dangers potentiels de certaines de ces évolutions.
    Il est naturel de vouloir transposer les outils utiles dans notre discipline vers l’ensemble des disciplines de recherche y compris, par exemple, les sciences humaines et sociales. Le CNRS s’est ainsi lancé dans le développement d’une base d’archives ouvertes, Hal, qui couvre effectivement l’ensemble des disciplines, et qui est couplée à ArXiv et PubMed Central. De nombreux établissements de recherche ont maintenant rejoint cette entreprise (INRIA, INSERM, CEA, INRA, universités, grandes écoles, etc.) et Hal recueille actuellement un flux de 20 000 documents en plein texte par an, avec une croissance à peu près exponentielle.
  • Allers et retours entre physique et biologie: le rôle des contraintes mécaniques dans la croissance des plantes (le 24 mai 2007) — Yves Couder
    Bernard Cagnac expose l’histoire du prix des trois physiciens déportés.
    Le prix est ensuite remis à Yves Couder.

    Les plantes ont des formes obéissant à une géométrie rigoureuse. Ces formes apparaissent lors de la croissance et leur génèse pose des problèmes qui intéressent botanistes, physiciens, mathématiciens et plus récemment biologistes du développement.
    Dans la première partie de l’exposé je reviendrai sur des recherches concernant la phyllotaxie et la nervation des feuilles. En décrivant ces travaux déjà anciens, je m’efforcerai de montrer comment des problèmes posés par la biologie peuvent contenir des questions de physique pure. Certaines d’entre elles peuvent par exemple concerner la relation entre cristal et quasi-cristal ou bien les différents modes de division de l’espace à deux dimensions.
    Dans la seconde partie je présenterai une tentative en sens inverse où il s’agit de tester des hypothèses concernant le rôle de forces physiques, en l’occurrence des contraintes mécaniques, sur la croissance biologique. Ces forces participent-elles à la régulation de la croissance l’apex des plantes? Pour bénéficier des outils modernes de la biologie ce genre de travail doit aujourd’hui être fait sur "Arabidopsis Thaliana", la plante modèle des biologistes et sur ses mutants. On décrira des expériences récentes dans lesquelles les propositions générales mais quelques peu simplistes des physiciens se confrontent à la réalité complexe de la biologie.
  • Joining Microelectronics and Microionics: Nerve Cells and Brain Tissue on Semiconductor Chips (le 31 mai 2007) — Peter Fromherz
    The lecture describes the electrical interfacing between semiconductor devices and living nerve cells. A physical understanding of these processes is important for applications of microelectronic chips in neurobiology and neuroprosthetics and also for experiments that may lead to neurocomputers. The structure and passive electrical properties of the cell-solid contact are investigated with luminescent dyes (wide angle interference & Stark effect). The electrical signaling from cells to silicon and from silicon to cells is studied with recombinant ion channels (Na+ and K+ channels) in cells that are cultured on electrolyte-SiO2-Si transistors and on electrolyte-TiO2-Si capacitors, respectively. On that basis, the stimulation of nerve cells from snails and rats by capacitors and the recording of neuronal activity with transistors is implemented. Two kinds of neuronal networks are interfaced with silicon chips: (i) small networks obtained by culturing neurons from snail and rat and (ii) large networks that preexist in the tissue of rat brain. The spatiotemporal dynamics of electrical signaling and memory formation in brain tissue is investigated by CMOS chips with closely packed arrays of transistors and capacitors.
  • Écoulements à l’échelle du nanomètre : où s’arrête l’hydrodynamique classique ? (le 7 juin 2007) — Elisabeth Charlaix
    L’investigation des écoulements à petite échelle est un domaine très actif. Le développement des systèmes micro et nanofluidiques pour l’analyse biologique ou chimique de très petits échantillons fluides, les phénomènes de lubrification dans les articulations ou les capillaires sanguins, le transport d’objets colloidaux par effets électrocinétiques, font intervenir des écoulements en géométrie confinée régis par l’hydrodynamique aux interfaces.
    Dans la première partie de cet exposé je présenterai les méthodes expérimentales récemment développées pour l’investigation des écoulements aux petites échelles, et plus particulièrement les méthodes de forces de surfaces qui ont permis les premières mesures hydrodynamiques résolues à l’échelle du nanomètre. Dans la seconde partie j’aborderai le problème de la condition limite d’un liquide s’écoulant sur une surface solide. Si la condition classique de non-glissement, est désormais remise en question, les travaux récents ont donné des résultats non-consensuels variant sur plusieurs ordres de grandeur. Je m’efforcerai de faire le point sur ce sujet controversé, et je discuterai la possibilité de modifier la condition limite de façon contrôlée en piégeant de l’air dans les anfractuosités de surfaces rugueuses hydrophobes.
  • Les gels actifs : vers une description générique de la mécanique cellulaire (le 14 juin 2007) — Jean-François Joanny
    Les systèmes actifs sont des sytèmes dans lesquels de l’énergie est constamment injectée, par exemple par une réaction chimique ou par une force extérieure. Les tas de sable en vibration, les vols d’oiseaux, les colonies de poissons sont des exemples de sytèmes actifs. Le cytosquelette dans les cellules est aussi actif : l’énergie est fournie par la réaction chimique d’hydrolyse de l’ATP qui est utilisée comme combustible par les moteurs moléculaires qui marchent le long des filaments du cytosquelette et créent des contraintes internes. Les propriétés du cytosquelette semblent dominées par les gels formés par les filaments d’actine qui interagissent avec des moteurs moléculaires de type myosine. Une propriété importante des filaments d’actine est leur polarité qui impose une orientation dans le gel.
    Nous avons construit une théorie hydrodynamique générale pour décrire la rhéologie de gels actifs polaires. La théorie prend en compte la visco-élasticité du gel, la polymérisation et la dépolymérisation de l’actine et les contraintes actives induites dans le gel. Nous présentons brièvement cette théorie et nous montrons certaines propriétés hydrodynamique très inhabituelles des gels actifs qui peuvent couler spontanément même en l’absence de gradient de pression. Nous donnons aussi quelques exemples d’application de la théorie à l’étude des propriétés des cellules: mouvement d’un lamellipode, et instabilités reliées à l’actine corticale.
    Ce travail a été effectué avec F.Jülicher, K.Kruse, J.Prost et K.Sekimoto
  • Les gaz ultra-froids : un monde quantique entre physique atomique et matière condensée (le 11 décembre 2008) — Jean Dalibard
    Il y a une douzaine d’années, l’observation de la condensation de Bose-Einstein dans une vapeur atomique apparut tout d’abord comme une belle confirmation de la théorie du gaz parfait. Cette découverte, qui aurait pu rester sans lendemain, a conduit au contraire à des développements spectaculaires, portant sur des problèmes nettement plus complexes de la physique à N corps. Ainsi le mouvement d’atomes dans le potentiel périodique créé par un réseau lumineux présente une forte analogie avec la physique des électrons dans des solides. Un autre exemple est la nucléation de vortex quantiques dans des gaz en rotation, qui peut conduire à des phénomènes similaires à l’effet Hall quantique. L’exposé présentera quelques avancées récentes de ce domaine de recherche, et montrera comment ces assemblées d’atomes froids peuvent être considérées comme des “simulateurs quantiques” de la dynamique très riche des systèmes qu’on rencontre en matière condensée.
  • L’énergie sombre et le modèle cosmologique standard (le 18 décembre 2008) — Jean-Philippe Uzan
    Les observations cosmologiques de la dernière décennie ont permis d’établir que l’expansion de l’univers était entrée récemment dans une phase d’accélération. Cette conclusion nous incite à revenir sur les hypothèses de notre modèle cosmologique afin d’essayer de comprendre l’origine physique, souvent appelée "énergie sombre", de cette accélération.
    Ce séminaire tentera de résumer les propriétés de notre modèle cosmologique de référence, puis discutera la possibilité de tester observationnellement ses extensions et les hypothèses sur lesquelles il repose, en particulier la théorie de la relativité générale et le principe copernicien.
  • Rayonnement thermique cohérent (le 15 janvier 2009) — Jean-Jacques Greffet
    Le rayonnement thermique, c’est-à-dire le rayonnement émis par un corps chauffé tel qu’un filament de tungstène, est généralement considéré comme l’exemple type du rayonnement incohérent : d’une part, le spectre est très large ; d’autre part, le rayonnement est quasi isotrope.
    Lorsqu’on revisite ces phénomènes à des distances de la surface émettrice inférieures à la longueur d’onde, la situation change du tout au tout. Le rayonnement peut devenir cohérent spatialement, ce qui permet de réaliser des sources très directives. La densité d’énergie électromagnétique par unité de volume augmente de plusieurs ordres de grandeur et peut être quasi monochromatique pour certains matériaux. Le transfert de chaleur entre deux corps est alors considérablement augmenté dans le régime de champ proche. Nous montrerons que ces phénomènes sont liés à l’excitation thermique d’ondes de surface.
  • Temps et Espace : du baquet de Newton à l’effet Casimir (le 22 janvier 2009) — Yves Pomeau
    Le premier scholium des Principia expose de façon approfondie ce qu’il faut entendre par espace et temps dans la physique classique, introduisant ce qu’on a appelé le temps et l’espace absolus. La discussion, très subtile, distingue l’existence physique de l’espace de son modèle géométrique. Newton introduit aussi (sans référence à Galilée qui n’est cité qu’un peu plus loin) le concept de changement de repère galiléen. Par l’exemple du baquet tournant, il montre l’existence absolue de la rotation, la translation uniforme n’existant pas absolument. Une question naturelle se pose alors : serait-il possible de mettre en évidence une rotation absolue par rapport au vide électromagnétique, compris comme l’état quantique fondamental du champ électromagnétique ? Je montrerai qu’un ellipsoïde diélectrique tournant est soumis à un couple de friction dû à la diffusion des modes zéro du champ électromagnétique. Ce couple est relativement non-trivial et ne dépend pas uniquement des termes dominants à grande distance de l’amplitude diffusée, une situation unique à ma connaissance. Suivant mes estimations, ce couple Casimir devrait être détectable dans un dispositif assez simple de "viscosimètre" du vide.
  • Comment modéliser les écoulements à plusieurs fluides de la vraie vie si l’on veut pouvoir les simuler ? (le 5 février 2009) — Jean-Michel Ghidaglia
    Alors que la plupart des écoulements font intervenir plusieurs fluides (ou plusieurs phases), ce n’est que récemment que les capacités de calcul permettent d’aborder leur simulation non stationnaire à 3D. Bien entendu, il faut modéliser pour simuler, et la modélisation des écoulements à plusieurs fluides n’est pas simple, ne serait-ce que parce que les interfaces sont d’une très grande complexité géométrique. Dans l’exposé, on se concentrera sur les divers types de modèles physiques, ce qu’on peut en attendre et la manière dont il faut choisir dans cette véritable jungle.
  • Mémoriser des milliers d’images et y répondre : le pigeon, le singe et l’homme (le 12 février 2009) — Joël Fagot
    Des expériences menées dans les années 1970 ont montré que des humains ayant vu des milliers d’image de scènes naturelles peuvent correctement classer ces images comme étant familières quelques jours plus tard. Nous avons voulu évaluer les performances de singes et de pigeons dans des épreuves analogues. Dans notre recherche, deux babouins et deux pigeons ont appris à associer des réponses binaires (manipulation d’un joystick pour le babouin, appui sur un écran tactile pour le pigeon) à la présentation d’images de scènes naturelles sur écran d’ordinateur. Le nombre d’images à mémoriser augmentait au cours de l’expérience, afin de tester les limites de la mémoire associative de chaque espèce. L’analyse de centaines de milliers d’essais collectés sur une période de trois à cinq ans révèle :
    (1) une capacité de mémorisation d’un millier d’images chez le pigeon et de plusieurs milliers d’images chez le singe,
    (2) une rétention sur le très long terme des images apprises et des réponses associées,
    (3) un apprentissage très rapide de ces liens associatifs, souvent en un seul essai.
    Des tests de transfert utilisant des images dégradées montrent que les performances des deux espèces reposent davantage sur une analyse des statistiques de l’image que sur une prise en compte de ce que l’image représente. Travail réalisé en collaboration avec le Dr Robert Cook (Tufts University, Boston).
  • Power injection in forced-dissipative hydrodynamic systems (le 19 février 2009) — William R. Young
    The most basic characterization of large, forced-dissipative systems is the rate at which mechanical energy is supplied by an external agency (power). I will review the background of "power problem", emphasizing that in fluid mechanics the driving agency does not usually work at a controlled rate. I will discuss two examples, namely two-dimensional turbulence and planetary-scale ocean circulation, in which determination of the average power is a central problem with surprising implications.
  • Effets quantiques macroscopiques dans les réseaux de jonctions Josephson (le 5 mars 2009) — Benoît Douçot
    Les réseaux de jonctions Josephson sont des systèmes quantiques remarquables car l’amplitude des fluctuations quantiques peut y être contrôlée à volonté en variant le rapport entre le couplage tunnel à travers les jonctions et l’énergie électrostatique associée aux fluctuations de charge. On peut ainsi passer, dans la limite de température nulle, d’une phase supraconductrice à une phase isolante en réduisant simplement la taille des jonctions tunnel. Je présenterai plusieurs travaux récents, expérimentaux et théoriques, qui illustrent l’importance des fluctuations quantiques dans ces systèmes. Celles-ci se manifestent d’une manière étonnante lorsque, jouant sur la géométrie du réseau et la frustration induite par le champ magnétique appliqué, on part d’une limite classique fortement dégénérée. La mécanique quantique induit des états collectifs de type "chat de Schrödinger" obtenus comme superposition de 2^N états macroscopiquement distincts, N étant la taille du réseau. L’absence de paramètre d’ordre classique rend ces états ultra-quantiques particulièrement insensibles à toute perturbation extérieure, d’où leur intérêt pour la réalisation de mémoires quantiques.
  • Spin currents without electric currents (le 12 mars 2009) — Alexey Kavokin
    The spin Hall effect consists in the generation of a spin current perpendicular to the charge current flow. Thirty-five years after its prediction by Dyakonov and Perel, it is in the focus of experimental and theoretical investigations and constitutes one of the most remarkable effects of spintronics. Due to scattering and dephasing in electronic gases, it is difficult to observe and has only been evidenced for the first time a few years ago. Recently, my group has predicted and the group of Alberto Bramati at Laboratoire Kastler-Brossel observed the optical spin Hall effect (OSHE) which consists in a separation in real and momentum space of spin-polarized exciton-polaritons generated by a laser in a semiconductor microcavity. These results show a high potential for the excitonic spintronics, i.e., spintronics without electric currents. The long-lived coherence of exciton-polaritons and their unusual spin properties make them excellent candidates for ultrafast delivery of quantum information over macroscopic distances. In this talk I will address the mechanisms of generation and control over exciton polariton spin currents in semiconductors and discuss the perspectives for excitonic spintronics.
  • Des dynamos industrielles aux champs magnétiques d’objets astrophysiques (le 26 mars 2009) — Stéphan Fauve
    PRIX DES TROIS PHYSICIENS
    La transformation de travail mécanique en électricité repose sur un mécanisme d’instabilité, l’effet dynamo. Les mouvements turbulents de fluides conducteurs amplifient ainsi des champs magnétiques à toutes les échelles de l’univers (planètes, étoiles, galaxies). Quelques questions relatives aux processus physiques en jeu seront discutées :
    – quelle est la géométrie des lignes de courant et de champ au sein du fluide conducteur,
    – quelles sont les symétries brisées par l’instabilité dynamo,
    – quels sont les mécanismes non linéaires de saturation et quelle densité d’énergie magnétique on peut obtenir,
    – comment un champ magnétique cohérent à grande échelle peut être engendré malgré la turbulence,
    – pourquoi la dynamique du champ ainsi créé est gouvernée par un système dynamique à faible nombre de degrés de liberté,
    – enfin, comment comprendre le cycle solaire ou les renversements du champ magnétique terrestre.
  • La nanophotonique : éclats d’une lumière tamisée… (le 9 avril 2009) — Henri Benisty
    La nanophotonique a pour objet les phénomènes électromagnétiques induits par des nanostructures. Lorsque 50 nm de matière de plus ou de moins en viennent à déterminer l’existence même de ces phénomènes, on quitte peu ou prou les lois de l’optique “traditionnelle”. Le terme “photonique” suggère quant à lui des fonctionnalités qui transforment potentiellement les éléments nanostructurés en dispositifs. Je rappellerai les techniques fondées sur des pointes, dans la famille des microscopes de champ proche, ainsi que les études de structures plus ou moins périodiques. Le riche concept de matériaux à bandes interdites photoniques, introduit en 1987, n’a connu ses plus beaux succès que vers 2005. L’apport heuristique est considérable : par exemple, les concepts de couplage fort et d’effet Purcell (modification de l’émission spontanée) dans les “nanocavités” sont des déclinaisons fondamentales de l’interaction entre deux oscillateurs ou entre un oscillateur et un “bain”. Des tendances plus récentes seront évoquées : non-linéarités, fibres à cristaux photoniques (commercialisées), “plasmonique” ou “métamatériaux”. Je soulignerai enfin des analogies entre optique atomique et nanophotonique, et des différences, notamment en ce qui concerne la “lumière lente”.
    Je discuterai quelques exemples d’application à des dispositifs : “circuit intégré photonique” à visée télécom, diodes électroluminescentes à haute efficacité pour l’éclairage, biophotonique à haute sensibilité. J’évoquerai enfin des effets de “lumière lente collective” dans des guides à cristaux photoniques.
  • "Son et lumière", ou comment manipuler les phonons acoustiques et les photons dans des nanostructures de semi-conducteurs (le 16 avril 2009) — Bernard Jusserand
    Les miroirs interférentiels présentent de très hautes réflectivités dans des plages de longueur d’onde prédéfinies. Leur association permet la réalisation de cavités photoniques où les photons sont confinés à l’échelle de leur longueur d’onde. Nous présentons la transposition de ces idées aux ondes acoustiques de fréquences voisines du térahertz. Des miroirs et des cavités acoustiques ont été réalisés par épitaxie par jets moléculaires d’empilements de couches de GaAs et AlAs avec des épaisseurs de l’ordre de la longueur d’onde acoustique, c’est-à-dire quelques nanomètres, et leur transmission acoustique a été déterminée par acoustique picoseconde.
    Nous avons également réalisé des mesures de spectroscopie Raman à haute résolution (10E-2 cm-1) de la largeur de raie d’un mode de cavité à 1 THz et montré sa variation avec la finesse, ainsi que l’influence du temps de vie intrinsèque des phonons acoustiques, qui est fini, contrairement à celui des photons. Nous avons mis à profit la forte différence de couplage acousto-optique entre les matériaux GaAs et AlAs pour mettre en évidence la génération dans le nanodispositif de paquets d’ondes acoustiques cohérents et quasi-monochromatiques pouvant se propager sur des centaines de microns dans un solide, ainsi que la détection sélective de fréquences acoustiques prédéterminées. La combinaison des confinements acoustiques et photoniques dans un même dispositif permet un renforcement considérable de l’efficacité de ces fonctions.
  • Une approche bio-mimétique pour étudier le toucher humain (le 23 avril 2009) — Georges Debrégeas
    La perception tactile digitale humaine fait de la main un outil d’une exceptionnelle précision. Cette perception est favorisée par un mouvement relatif du doigt et de la surface explorée. Les déformations superficielles de la peau induites par ce mouvement sont traduites en signaux nerveux par des terminaisons nerveuses mécano-sensibles situées 1 mm environ sous l’épiderme. La transduction de l’information tactile comprend donc une étape mécanique pré-neuronale que nous avons récemment étudiée au moyen d’un senseur tactile bio-mimétique du doigt humain. Nous avons pu montrer que le filtrage de l’information tactile dépendait à la fois des caractéristiques physiologiques de la peau et des conditions exploratoires fixées par l’individu. Les empreintes digitales jouent un rôle important dans ce processus : elles conduisent à une amplification d’une fréquence particulière de vibration qui coïncide avec la fréquence de réponse optimale de l’un des mécano-récepteurs. De façon surprenante, la présence des empreintes digitales confère à l’organe tactile les caractéristiques d’un filtre de Gabor dont les propriétés de renforcement de contraste, de discrimination de textures, sont classiquement utilisées dans le domaine de l’analyse d’image.
  • Électronique moléculaire : de la molécule-composant au calculateur intégré à base de graphène (le 30 avril 2009) — Érik Dujardin
    Depuis 35 ans et la conjecture d’Aviram et Ratner selon laquelle une molécule asymétrique se comporterait comme une diode, l’électronique moléculaire est devenue un domaine de science partagé par les chimistes, physiciens expérimentateurs et théoriciens.
    Dans ce vaste paysage, nous commencerons par suivre une trajectoire qui mettra en lumière les principaux résultats de l’électronique moléculaire hybride, c’est-à-dire celle qui étudie le comportement d’une ou quelques molécules mises entre des électrodes métalliques. Ce panorama bibliographique nous amènera à identifier les limitations et questions ouvertes de cette approche, parmi lesquelles la dissipation du signal, le devenir des lois de Kirchhoff ou la pertinence d’une architecture type CMOS.
    Nous exposerons ensuite les concepts et quelques stratégies expérimentales d’une approche holistique dite électronique mono-moléculaire qui propose d’intégrer dans une même entité moléculaire un calcul complet et non une fonction simple (diode, fil, interrupteur, ...).
    Nous finirons en exposant les atouts du graphène dans ce contexte, parmi lesquels sa grande mobilité, sa sensibilité aux effets de bords, la possibilité d’une structuration multi-échelle et d’une fonctionnalisation covalente, et nous décrirons quelques résultats expérimentaux obtenus au CEMES.
  • Shot noise in graphene sheets and in graphene Josephson junctions (le 7 mai 2009) — Pertti J. Hakonen
    Non-equilibrium current fluctuations provide invaluable supplementary information to the regular conductivity measurements in nanoscale samples. We have studied this noise, called shot noise, in graphene strips at cryogenic temperatures down to 50 mK. We find that the Fano factor (F = S_I /2e < I >) varies as a function of the carrier density and of the width-to-length ratio. At the Dirac point, the measured F is close to the universal value of 1/3 that is theoretically predicted for ideal, “pseudo-diffusive” graphene samples with W/L > 3. In my talk, I will present our experimental findings and discuss their implications on the nature of electrical transport in graphene. Using superconducting metal contacts, gate-controlled supercurrents can be generated in graphene. These Josephson junctions display clear signatures of multiple Andreev reflections, which leave pronounced fingerprints into the shot noise as well as into electrical conductivity. I will introduce the main results of our investigations with superconducting contacts and briefly discuss our preliminary experiments on the current-phase relation in graphene Josephson junctions.
  • The Physics of Sunspots (le 14 mai 2009) — Nigel Weiss
    Sunspots are the sites of strong magnetic fields that inhibit heat transport by convection. The intricate fine structure of these magnetic fields has only recently been revealed, by observations from the ground and from space. These observations raise theoretical problems, requiring a revised physical model that can be supported by large-scale computation. The global incidence of sunspots varies with a well-known 11-year cycle but the most recent indications suggest that the amplitude of this cycle is currently declining.
  • Fracture fragile versus fracture fluide dans les fluides complexes : le paradigme expérimental des réseaux transitoires auto-assemblés (le 4 juin 2009) — Christian Ligoure
    Ductilité et fragilité caractérisent la nature du mécanisme de fracture dans les solides sous tension lorsqu’ils subissent des dommages irréversibles. Les solides fragiles rompent "brutalement" dans un régime élastique au-dessus d’une contrainte-seuil, tandis que les solides ductiles se déforment plastiquement avant de fracturer. La théorie de Griffith, fondée sur la préexistence de micro-craquelures dans les solides, constitue une description simple et convaincante de la fracture fragile. La ductilité, quant à elle, implique l’existence de mécanismes mésoscopiques spécifiques permettant des réarrangements locaux (fluage) qui préservent cependant en moyenne la microstructure du solide. Parler de fracture fragile pour des fluides visco-élastiques semble a priori paradoxal dans la mesure où, comme tous les liquides, ils accommodent des déformations arbitrairement grandes après un temps de relaxation fini. Les réseaux transitoires auto-assemblés peuvent être définis comme des matériaux complexes formant spontanément des réseaux réversibles tridimensionnels, capables de transmettre transitoirement des forces élastiques sur des distances macroscopiques. Je montrerai que deux types de fluides modèles appartenant à cette classe de matériaux et ayant les mêmes propriétés rhéologiques linéaires très simples (mêmes fluides de Maxwell) exhibent les deux types de fracture (fragile versus ductile) comme le font les solides. Le mécanisme de la fracture fragile sera analysé en détail, à la fois expérimentalement et théoriquement ; je montrerai, en particulier, que dans ces fluides la fragilité trouve son origine dans les fluctuations thermiques de la distribution des liens de leur microstructure. Enfin, je présenterai des résultats préliminaires sur la transition ductile/fragile à partir d’un système original que nous avons formulé et qui intègregre à la fois la microstructure du fluide fragile et du fluide ductile.
  • A Brief Scientific History of Measuring Forces: From Gravitational to Molecular Forces (le 18 juin 2009) — Jacob Israelachvili
    The concept of force goes back to a time when forces were thrown out by deities (gods) to help or punish people, as in the Old Testament. Later, after Galileo and Newton, these became quantifiable scientific concepts, but still lacking in any coherent theory. Gravitational forces were confused with molecular forces, friction forces with heat and matter (caloric), and the concept of energy did not appear until the mid 1800s. The talk will review these old and modern ideas, but will mainly focus on how various forces or "interactions" have been measured and how this has lead to dramatic advances but also some spectacular blunders. The talk will end with a discussion of what is still not understood such as hydrophobic and dynamic (non-equilibrium, rate and time-dependent) interactions.
  • The Power of the Sun (le 23 juin 2009) — Walter Kohn
    Perspectives sur "An Earth predominantly powered by Solar and Wind Energy" avec projection du film The Power of the Sun.
  • Hall Effect and Electron-Electron Interactions in Graphene (le 25 juin 2009) — Philip Kim
    The experimental observation of the Quantum Hall (QH) effect in single atomic sheet of graphene has attracted much attention recently, particularly due to the unique analogy to quasi relativistic quantum mechanics in its electronic structures. Compared with the conventional integer QH effect in many other two-dimensional (2D) systems, the filling factor quantization condition in graphene is shifted by a half integer at relatively low magnetic fields. At the extreme quantum limit, additional QH states corresponding lifting of the four-fold degeneracy of the lowest Landau level (LL) appear. The nature of these QH states near the charge neutral Dirac point is of fundamental interest as a single particle theory breaks down. In this talk, we will discuss the transport and IR measurement results that reveal the role of the many-body effects due to the electron-electron interaction in graphene near the Dirac point. In addition, we will discuss the conductance oscillations in extremely narrow graphene heterostructures where a resonant cavity is formed between two electrostatically created bipolar junctions.
  • Développements actuels en spintronique (le 8 octobre 2009) — Albert Fert
    La spintronique, qui exploite l’influence du spin sur la conduction électrique et prend racine dans des recherches fondamentales sur les métaux ferromagnétiques, s’est développée après la découverte de la Magnétorésistance Géante (GMR) en 1988 et est aujourd’hui en pleine expansion. Elle possède des applications importantes, la plus connue étant la lecture des disques durs par GMR qui a conduit à une augmentation considérable des densités de stockage d’information. Actuellement la spintronique se développe sur de nombreux axes. Le transfert de spin, par exemple, permet de manipuler l’aimantation d’un ferromagnétique sans appliquer de champ magnétique mais seulement par transfert de moment angulaire de spin amené par un courant, c’est-à-dire par transport électrique d’aimantation. Il sera bientôt appliqué à l’écriture de mémoires magnétiques (MRAM pour nos ordinateurs) et à la génération d’ondes hyperfréquence (application en télécommunications). La spintronique associant matériaux magnétiques et semi-conducteurs, la spintronique moléculaire, la spintronique à un électron, se développent également. L’exposé passera en revue les avancées récentes et leur potentiel technologique.
  • "Big Bang" ou "Big Bounce" ? (le 15 octobre 2009) — Gabriele Veneziano
    Le paradigme inflationnaire évite les difficultés de la cosmologie conventionnelle du Big Bang chaud avec des conséquences tout à fait remarquables. Une alternative, suggérée par la théorie des cordes, consiste à remplacer le Big Bang par un grand rebondissement, le Big Bounce. Les (dés)avantages relatifs de ces deux scénarios seront discutés et comparés.
  • Analyser et mesurer à l’échelle de la nanostructure individuelle (le 22 octobre 2009) — Christian Colliex
    De nouvelles techniques de synthèse permettent d’élaborer une grande diversité de matériaux et de structures dont les briques élémentaires sont à l’échelle du nanomètre. Connaître l’architecture atomique, la composition détaillée et les propriétés électroniques et optiques de ces nouveaux objets de synthèse à l’échelle la plus fine possible est indispensable pour comprendre la relation entre leur synthèse et leurs propriétés fonctionnelles. Dans une colonne de microscope électronique, l’analyse point par point de l’échantillon avec un faisceau très fin d’électrons primaires (diamètre de l’ordre de l’Angström) et la mesure de sa réponse spectrale (spectroscopie de pertes d’énergie EELS avec une résolution de l’ordre de 0.2 eV sur une vaste gamme spectrale, de l’eV au keV) permettent l’étude de ces nouveaux matériaux à l’échelle de la nanostructure ou du défaut individuel. Ceci sera illustré par la cartographie à l’échelle atomique des différentes colonnes et de leurs liaisons de part et d’autre d’une interface métal-oxyde ou oxyde-oxyde et par la cartographie des propriétés optiques de nanoparticules métalliques individuelles ou en interactions. En associant ces techniques ultimes de caractérisation avec une approche interactive entre l’observateur et l’échantillon situé dans un porte-objet in situ spécialement conçu pour exercer des contraintes extérieures, la voie est désormais ouverte à la réalisation et à l’utilisation du nano-laboratoire fonctionnel.
  • De la génération de lumière intriquée à partir de boîtes quantiques (le 29 octobre 2009) — Isabelle Robert-Philip
    D’expérience capitale pour l’interprétation de la mécanique quantique, la violation des inégalités de Bell est devenue notamment une expérience de travaux pratiques dans certaines universités et un outil pour des applications prospectives dans le traitement de l’information quantique. Un des enjeux actuels autour de ces inégalités est d’imaginer et de réaliser de nouvelles sources et de nouveaux schémas d’expérience testant ces théories sur des systèmes plus complexes. Nos travaux visent à contrôler le rayonnement de boîtes quantiques uniques placées, pour produire de tels photons intriqués. À l’heure actuelle cependant, les boîtes quantiques ne s’inscrivent ni dans le cadre d’une réalisation plus simple et plus rapide de ces tests, ni dans le cadre de l’élaboration de tests plus complexes. Nous montrerons plutôt que les expériences de corrélations de photons sont un moyen efficace de tester les différentes cohérences des niveaux électroniques des boîtes quantiques. Nous présenterons plusieurs schémas d’intrication possibles à partir de boîtes quantiques uniques : l’intrication en temps-position et l’intrication en polarisation. Nous présenterons un état de l’art dans le domaine et soulignerons le rôle que pourraient jouer les effets d’électrodynamique quantique en cavité pour produire de tels états quantiques de la lumière.
  • Principe, état de l’art et applications des accélérateurs de particules à plasma laser (le 5 novembre 2009) — Victor Malka
    Le développement continu des lasers de puissance a permis d’étendre les régimes d’interaction laser-matière dans le domaine relativiste. Les champs électriques très élevés qui sont produits au cours de cette interaction dépassent de trois ordres de grandeur ceux produits dans des cavités radio-fréquence et permettent des accélérations records. La maîtrise de cette physique de l’interaction en régime relativiste a permis le développement d’un nouveau type d’accélérateur à “laser-plasma” et la production de faisceaux de particules et de rayonnement énergétiques de grande qualité. Ces accélérateurs fonctionnent soit dans le régime de la bulle, soit dans celui de collision d’impulsions laser. Des applications dans de nombreux domaines, comme la médecine (radiothérapie, imagerie), la biologie (radiographie à haute résolution temporelle), la chimie (radiolyse), la physique et la science des matériaux (radiographie, diffraction d’électrons et de photons), la sécurité (méthodes d’inspection) et évidemment la physique des accélérateurs sont en cours d’étude. Stimulé par l’avènement de lasers compacts et puissants, de coûts modérés et de haut taux de répétition, ce champ de recherche connaît un essor considérable.
    J’expliquerai au cours de ce séminaire les principes de fonctionnement et l’évolution de cette nouvelle génération d’accélérateurs. Je montrerai ensuite quelques exemples d’applications que nous avons récemment abordés.
  • Black holes in string theory (le 12 novembre 2009) — Ashoke Sen
    After giving a brief introduction to black holes and string theory I shall describe how string theory helps us resolve some of the puzzles involving black holes. I shall end my talk by describing some of the recent advances in this field.
  • Quelques avancées récentes dans l’étude des boîtes quantiques semi-conductrices (le 19 novembre 2009) — Paul Voisin
    Les “boîtes quantiques” à base de semi-conducteurs III-V ou II-VI sont des objets présentant des propriétés de cohérence quantique inhabituelles en physique du solide, associées à leur caractère d’“atomes artificiels”. Leur étude dans le double contexte de l’électrodynamique quantique en cavité et de la manipulation de l’information quantique fait l’objet d’une compétition scientifique intense. Dans ce séminaire pour non-spécialistes, je présenterai quelques problématiques d’intérêt actuel et les avancées récentes effectuées, en particulier dans mon équipe au LPN, sur les deux “fronts” principaux que sont le couplage d’une boîte quantique à une microcavité optique résonante et la manipulation du spin de porteurs “résidents” à l’aide de méthodes magnéto-optiques.
  • Imagerie multi-ondes et super-résolution (le 26 novembre 2009) — Mathias Fink
    L’utilisation combinée de deux types d’ondes aux caractéristiques bien différentes permet de réaliser des images médicales très nouvelles. On peut ainsi obtenir, sur mesure, un contraste et une résolution spatiale inégalés dans les systèmes d’imagerie conventionnels. On décrira les différents scénarios proposés en imagerie multi-ondes qui font appel au couplage d’ondes de caractéristiques très variées (optique, micro-ondes, ultrasons, ondes de cisaillement sonores et ondes électromagnétiques BF). On décrira plus particulièrement le concept d’imagerie multi-ondes dans le cadre de l’imagerie des propriétés rhéologiques (élasticité et viscosité) du corps humain. On montrera comment l’utilisation combinée d’ondes de cisaillement sonores très lentes et d’ondes de compression ultrasonores rapides permet de réaliser une imagerie d’élasticité des organes avec une précision submillimétrique. Cette approche qui s’apparente à une imagerie du champ proche des ondes élastiques a donné lieu à de nombreuses applications médicales qui vont de la détection des lésions cancéreuses à la mesure du degré de fibrose du foie et à l’imagerie cardiovasculaire en passant par la création de plusieurs sociétés.
  • Tests fondamentaux de physique quantique dans une "boîte à photons" (le 10 décembre 2009) — Serge Haroche
    Les expériences d’électrodynamique quantique en cavité jonglent avec des atomes et des photons dans une enceinte aux parois réfléchissantes. Elles réalisent au laboratoire la "boîte à photons" dont Einstein et Bohr avaient rêvé dans leurs expériences de pensée. En comptant de façon non destructive les photons dans cette boîte, nous illustrons les postulats fondamentaux de la mesure quantique et donnons une vision très directe des concepts d’état quantique et de saut quantique qui jouent un rôle central dans la description des systèmes microscopiques et de leur dynamique.
    Ces expériences nous ont aussi permis de préparer des superpositions mésoscopiques d’états à quelques photons exhibant des effets d’interférence quantique spectaculaires. Nous avons reconstruit expérimentalement l’état quantique complet de ces superpositions, appelées "chats de Schrödinger" en référence à la fameuse expérience de pensée imaginée en 1935 par ce physicien. En dévoilant l’évolution dans le temps de ces états, nous avons pu réaliser de véritable films du processus de décohérence qui efface les interférences quantiques, transformant les superpositions mésoscopiques en simple mélanges statistiques classiques. Nous ferons le point sur ces expériences qui réalisent une exploration de la frontière entre les mondes classique et quantique et discuterons de leurs prolongements et généralisations à d’autres systèmes.
  • An overview of development and application of nonlinear wave models (le 7 janvier 2010) — Stephan Grilli
    This seminar will provide an overview, tailored to a multi-disciplinary audience, of the author’s over-20-year experience with developing two- and three-dimensional fully nonlinear wave models solving inviscid Euler equations (mostly based on Boundary Integral Equation methods), and their more recent coupling to full Navier-Stokes models. The talk will be illustrated with a series of application including nonlinear wave shoaling/overturning and breaking in near-shore areas, the formation of freak waves, the generation of tsunamis by underwater landslides, and wave-induced bottom boundary layers and sediment suspension and transport. A series of more fundamental (i.e., equations, physics at play) as well as numerical (solution algorithm, implementation, convergence/accuracy) aspects of the problems will be presented as well.
  • 60 Years after Flory’s Ideality Hypothesis: Are Polymer Chains in a Melt Really Ideal? (le 14 janvier 2010) — Jörg Baschnagel
    A cornerstone of modern polymer physics is the Flory ideality hypothesis. This hypothesis states that polymer chains in the melt—that is, in a liquid consisting of polymer chains—have random-walk-like conformations. The chains behave as if there were no excluded volume forces between the monomers. However, recent theoretical and numerical results suggest that this view of a polymer melt is an oversimplification. There are noticable deviations from chain ideality, resulting from the interplay of chain connectivity and incompressibility of the melt. This interplay leads to a swelling of chain segments and thus to a perturbation of the postulated ideal chain conformation. The swelling manifests itself, for instance, in the following way: (i) The bond-bond correlation function of two bonds separated by s monomers along the chain decays algebraically for large s instead of exponentially; (ii) there are systematic, wave-vector-dependent deviations from the Kratky plateau for the form factor of a chain; and (iii) the static Rouse modes are continuously depressed below the prediction for ideal chains. We will present an overview of these results and briefly discuss the relevance of the described deviations from chain ideality in other situations, e.g., for polymer melts in confined geometry.
  • Courbes aléatoires en 2D : des interfaces critiques à la turbulence (le 21 janvier 2010) — Denis Bernard
    Comprendre la nature de courbes ou trajectoires aléatoires est un problème récurrent en physique ou en mathématiques (la théorie du mouvement brownien est issue de ce désir de compréhension). Dans de nombreuses situations, ces courbes possèdent la propriété remarquable d’être invariantes sous des transformations conformes (transformations préservant les angles). Nous décrirons par des exemples d’origines physiques ou géométriques les propriétés caractéristiques de ces courbes, les progrès significatifs obtenus dans leurs descriptions après la découverte de processus stochastiques adaptés (processus SLE), ainsi que les liens entres ces processus et la physique statistique des systèmes critiques bidimensionnels. Une application de ces nouveaux outils à la turbulence 2D sera également mentionnée.
  • Tirer sur l’eau : cavitation et anomalies (le 28 janvier 2010) — Frédéric Caupin
    La pression qui règne dans un gaz est toujours positive. Dans un liquide, en revanche, la cohésion de la matière permet de réaliser des pressions négatives. Le liquide se trouve alors en extension, dans un état métastable qui finit par être détruit par l’apparition de bulles de vapeur. Ce phénomène a des conséquences pratiques importantes, sur l’ascension de la sève dans les arbres par exemple. La connaissance de la limite de cavitation de l’eau peut également nous renseigner sur l’origine de ses célèbres anomalies. Notre équipe a ainsi ”tiré sur l’eau” en utilisant des ultrasons focalisés. Nous avons tout d’abord estimé la pression à laquelle les bulles apparaissent, et montré la très grande reproductibilité de nos mesures [1]. Plus récemment, nous avons réalisé une mesure directe de deux grandeurs physiques du liquide au seuil de cavitation : la densité et la vitesse du son [2]. Nous accédons ainsi à l’équation d’état du liquide métastable. Nos résultats sont en flagrant désaccord avec la théorie de la cavitation dont n’a pu s’approcher qu’une seule expérience, fondée sur des inclusions d’eau dans du quartz [3]. Nous discuterons les différentes explications qu’on peut avancer pour interpréter cette nouvelle anomalie.
    [1] E. Herbert, S. Balibar, F. Caupin, Phys. Rev. E 74 (2006) 041603
    [2] K. Davitt, A. Arvengas, F. Caupin, en préparation
    [3] Q. Zheng, D.J. Durben, G.H. Wolf, C.A. Angell, Science 254 (1991) 829
  • Un nucléaire durable pour une énergie d’avenir (le 4 février 2010) — Claude Guet
    Alors que la demande énergétique mondiale est appelée à croître et qu’il est urgent de réduire les émissions de carbone dans l’atmosphère, le développement à grande échelle des énergies renouvelables est une priorité mondialement partagée. Ces énergies ne peuvent toutefois se substituer entièrement à moyen terme aux énergies fossiles pour la production d’électricité. Pour l’instant, seule l’énergie nucléaire de fission peut constituer une base stable significative, sans émission de carbone, à laquelle s’ajouteraient les énergies renouvelables intermittentes. La relance du nucléaire à l’échelle mondiale confirme ce fait. Pourtant cette relance se heurte à une certaine réserve qui repose sur les craintes d’accident majeur, du devenir des déchets à long terme, de détournement de technologie ou de matière à des fins militaires. Le séminaire vise à présenter et discuter l’état de l’art actuel en matière d’énergie nucléaire, les perspectives de développement vers un nucléaire durable recyclant le combustible et utilisant l’essentiel de la ressource uranium, la gestion des déchets ultimes, les moyens de réduire considérablement les risques de prolifération. Les avancées technologiques attendues reposent sur des avancées scientifiques significatives notamment en science des matériaux et en chimie que la recherche fondamentale contribuera à nourrir. Quelques exemples seront discutés.
  • Earth Core Formation and Composition: New Constraints from High-Pressure Experiments (le 11 février 2010) — James Badro
    I will present a general perspective of deep Earth and deep planetary research; I will show geophysical evidence for a core constituted of Fe-Ni alloyed with a certain quantity of lighter elements. I will then show how our elasticity measurements under high P and T bring good evidence that the light element in Earth’s inner core is silicon. I will then show how modelling recent metal-silicate thermodynamic phase equilibria provide evidence that the light elements in the outer core are mainly oxygen and silicon. I will finally show that due to the spin transition of iron in Earths lowermost mantle, the core and mantle are in (or very close to) chemical equilibrium at the present day.
  • Spherical Life: Schemes for Colloidal Self-Replication (le 18 février 2010) — David Pine
    We are developing new kinds of colloids that interact with each other via specific directional interactions. Using a variety of interactions, including magnetic, lock-and-key shape recognition, and complementary DNA base-pair binding, we build complex colloidal microstructures and seek to develop a scheme whereby these structures can self-replicate.
  • The Genius of Michael Faraday (le 11 mars 2010) — John Meurig Thomas
    Lord Rutherford said of Michael Faraday that he was one of the greatest experimenters ever; Albert Einstein believed that Michael Faraday was responsible for the greatest change in intellectual structure of physics since Newton. There is little doubt that Faraday bequeathed a greater corpus of useful knowledge than any other physical scientist. How did it come about that Faraday, a deeply religious man who left school at thirteen to become an errand boy and then an apprentice to a bookbinder (a young man who never attended high school or university and knew no mathematics), could reach such pinnacles? In terms that are also intelligible to non-scientists and interested lay persons, the speaker shall endeavour to answer the above and related questions. The tale of Faraday’s achievements and discoveries is one of the most romantic in the history of science; his character, intellect and commitments speak to us through all ages.
  • ’Perfect’ Sampling: A New Paradigm for Monte-Carlo Computations (le 25 mars 2010) — Werner Krauth
    Les simulations de Monte Carlo jouent aujourd’hui un grand rôle en physique : elles résolvent des problèmes classiques et quantiques sans introduire d’erreurs autres que le bruit statistique qui, lui, disparaît aux temps longs. J’évoquerai quelques algorithmes et applications dans notre groupe, allant des gaz de centaines de milliers de bosons dans des pièges harmoniques, en physique atomique, aux systèmes de millions de particules classiques, en physique des liquides. À chaque fois, la simulation amène le système d’une configuration initiale vers une configuration d’équilibre. À chaque fois aussi, le résultat est exact, au bruit statistique près : l’influence de l’état initial, exponentiellement supprimé, ne joue aucun rôle.
    Les simulations de Monte Carlo souffrent toutefois d’un énorme problème. Il s’avère parfois difficile de s’assurer que la simulation a tourné suffisamment longtemps pour que le résultat reflète l’état d’équilibre et non plus la condition initiale. De cette difficulté sont nées des controverses trentenaires sur la nature de certaines transitions de phase. Dans ce contexte, une reformulation de la méthode de Monte Carlo, l’échantillonnage "parfait", est en train de révolutionner la théorie comme la pratique des simulations : selon ce protocole, les configurations perdent soudain rigoureusement toute corrélation avec la condition initiale, elles sont parfaites. Je motiverai cette méthode, et montrerai des exemples assez étonnants de simulations "parfaites" pour des verres de spin et des systèmes de sphères dures, utilisant des méthodes que nous avons développées au laboratoire. L’échantillonnage parfait est donc promis à un bel avenir en simulation. Il jette aussi un nouveau regard sur tout processus de diffusion dans la nature. C’est cet aspect que je discuterai en fin de séminaire.
  • The Glass Transition (le 8 avril 2010) — Giulio Biroli
    When a liquid is super-cooled below the crystallisation transition, its relaxation time increases dramatically. A mere temperature decrease of one third of the crystallisation temperature makes the viscosity shoot up of fourteen, or more, orders of magnitude. The relaxation time increases so much that eventually the liquid does not relax anymore on experimental time-scales and becomes an amorphous rigid material, called glass. This phenomenon – the glass transition – is common to many other systems: it emerges in soft matter and granular media at high enough density and it plays a very important role even in other branches of science, such as computer science and combinatorial optimization. The glass transition remains a conundrum yet to be fully explained and which does not seem to fit in well with the standard theory of phase transitions. Recently, there has been a lot of progress: growing dynamical correlations have been identified; it has been shown that amorphous order is developing approaching the glass transition; theories, in particular the one based on mean-field glassy systems, have been evolved to a point where a final answer seems within reach. In this talk, after an introduction to the glass transition and its multiple facets, I will present these new results.
  • Ailes battantes et propulsion biomimétique (le 6 mai 2010) — Ramiro Godoy-Diana
    La génération de forces propulsives à l’aide d’extrémités battantes est la tâche quotidienne des poissons, insectes et autres animaux. C’est aussi le but des systèmes artificiels inspirés des systèmes biologiques. Du point de vue de la mécanique des fluides, ce sont les tourbillons produits par le mouvement des ailes battantes qui vont piloter la magnitude et direction de ces forces, en emportant avec eux de la quantité du mouvement lorsqu’ils sont détachés des ailes ou nageoires ou bien en modifiant le champs de pression autour de l’aile lorsqu’ils restent attachés. D’autre part, si l’on pense à ces ailes ou nageoires en tant que structures, il n’est pas difficile de voir que leur habileté pour produire une force de poussée, de sustentation ou de manœuvrabilité, ainsi que leur efficacité, seront intimement liées à leurs propriétés élastiques et géométriques. Je présenterai ici deux expériences différentes avec des modèles relativement simples qui illustrent quelques mécanismes de base associés à la propulsion par ailes battantes. Ces expériences (un aileron oscillant dans un canal hydrodynamique et un "insecte" mécanique monté dans un manège), réalisées au laboratoire PMMH (ESPCI), nous ont permis d’étudier d’une part les transitions observées dans les allées tourbillonnaires typiques des sillages produits par des ailes battantes, et d’autre part l’effet de la flexibilité des ailes dans l’efficacité propulsive.
  • Les polaritons de cavité : des condensats à l’état solide (le 20 mai 2010) — Jacqueline Bloch
    Les polaritons de cavité sont des états mixtes exciton-photon issus du couplage fort entre le mode optique d’une microcavité et les excitations électroniques (excitons) de puits quantiques. Ils obéissent à la statistique bosonique et constituent un système modèle pour l’étude de condensats de Bose à l’état solide. Il s’agit de condensats hors équilibre, présentant de fortes interactions liées à leur caractère excitonique et possédant un pseudo-spin qui peut être adressé optiquement. Après une introduction générale sur les polaritons de cavité, nous décrirons dans ce séminaire des expériences récentes que nous avons réalisées sur des cavités unidimensionnelles. Nous avons généré des condensats de polaritons qui se propagent de façon ultra-rapide et présentent une cohérence spatiale macroscopique sur des distances 100 fois supérieures à leur longueur d’onde de de Broglie. Nous montrerons que ces condensats peuvent être manipulés optiquement, couplés par effet tunnel ou piégés de façon contrôlée. Ces résultats ouvrent de nombreuses perspectives quant à la manipulation de condensats de polaritons dans des circuits optiques.
  • Jovian Climate Change (le 27 mai 2010) — Phil Marcus
    Eight years ago, we predicted that Jupiters weather patterns would change abruptly—starting in 2006. In December 2005, Jupiter developed (for the first time in its 350 years of observations) a second, large "Red Spot". Since then, much of Jupiter’s atmosphere has been in upheaval. We review the calculations upon which our predictions were made, illustrate key features of the dynamics of the vortices in the Jovian atmosphere, and show how current and past observations can be used to quantify Jupiter’s changes. For example, we show that the Great Red Spot has decreased by about 20% over the last ten years. We explain the physics of the color change that led to the new, second "Red Spot". We conclude with new calculations that predict changes during the coming year, and we speculate about the long-term variability of Jupiter’s climate.
  • Le projet Planck : une nouvelle étape dans la cosmologie observationnelle (le 3 juin 2010) — Jean-Loup Puget
    La cosmologie observationnelle pose des problèmes de méthode difficiles aux théoriciens. Elle pose aussi des problèmes redoutables aux observateurs. Le satellite Planck a été lancé il y a un an. Cette mission était un pari technologique très ambitieux qui a été gagné. Les performances obtenues en vol vont permettre de tester certaines prédictions concernant la physique de l’univers primordial.
  • Localisation d’Anderson et transition métal-isolant d’Anderson dans les gaz atomiques froids (le 10 juin 2010) — Dominique Delande
    En présence d’un potentiel aléatoire, le mouvement classique d’une particule est typiquement diffusif, avec une constante de diffusion dépendant du degré de désordre. Quand les interférences quantiques entre différents chemins sont pris en compte, la situation peut être radicalement différente, conduisant en particulier à un phénomène de localisation appelé localisation d’Anderson, et à une transition diffusif-localisé, i.e. métal-isolant, quand on modifie l’amplitude du désordre. Ces effets sont très sensibles à la préservation de la cohérence de phase quantique et donc difficiles à observer expérimentalement. En utilisant des ondes de matière atomiques à très basse température, manipulées par des champs lasers, on a pu observer directement la localisation d’Anderson, la transition métal-isolant et en mesurer finement les propriétés caractéristiques. Ces études ouvrent des perspectives nouvelles pour l’étude du transport quantique, en présence de désordre et/ou d’interactions.
  • Effet de proximité supraconducteur dans des atomes artificiels (le 17 juin 2010) — Takis Kontos
    Un métal supraconducteur peut "exporter" ses corrélations dans un métal normal. Ce phénomène d’effet de proximité, bien compris dans les métaux usuels tels que le cuivre, l’argent ou l’or, peut être vu comme l’injection des "briques élémentaires" de l’état supraconducteur, les paires de Cooper, dans la partie normale du circuit. Grâce aux avancées récentes des techniques de nanofabrication, cette physique a pu être revisitée lorsque la partie non supraconductrice est réduite à un seul ou un ensemble d’atomes artificiels, ces derniers étant implémentés notamment dans des conducteurs moléculaires tels que les nanotubes de carbone ou bien les molécules de C_60 (connectés à des électrodes supraconductrices). Le caractère "réglable" du transport dans ces systèmes permet d’apporter un nouvel éclairage à des phénomènes tels que l’effet Josephson. Cette propriété permet également d’implémenter des géométries où la supraconductivité induite pourrait être utilisée pour implémenter une "lame séparatrice à paires de Cooper" pour la génération d’états électroniques intriqués à l’état solide. Ces derniers résultats ouvrent la voie vers la réalisation d’expériences plus sophistiquées inspirées de l’optique quantique avec des états électroniques qui permettraient, entre autres, de caractériser la cohérence des paires de Cooper séparées émises.
  • Asymmetric supernovae and pulsar kicks theory and experiment (le 14 octobre 2010) — Thierry Foglizzo
    Massive stars end their life with the gravitational collapse of their core and the formation of a neutron star. Their explosion as a supernova depends on the revival of a spherical accretion shock, located in the inner 200 km and stalled during a few hundred milliseconds. Numerical simulations suggest that an asymmetric explosion is induced by a hydrodynamical instability named SASI. Its non radial character is able to influence the kick and the spin of the resulting neutron star. I will review the current status of these discoveries and present the SWASI experiment. This simple shallow water analog of SASI is designed to illustrate the asymmetric nature of core-collapse supernova.
  • Fluctuations dans les systèmes hors équilibre : de la théorie aux expériences (le 21 octobre 2010) — Sergio Ciliberto

  • Rides, dunes, chevrons et méandres (le 28 octobre 2010) — Bruno Andreotti
    Les formes du lit d’une rivière résultent de l’interaction entre le relief et l’écoulement de l’eau au travers du transport de sédiments. Dans un premier temps, nous analyserons les difficultés posées par la morphogénèse des rivières tant du point de vue naturaliste que du point de vue analytique, et qui en font un problème moderne. Nous montrerons que deux échelles de longueur jouent un rôle clef : la longueur de saturation du transport de particules et la hauteur d’eau. Nous détaillerons dans un premier temps la situation où la hauteur d’eau est infinie et nous concentrerons sur les mécanismes qui régissent le transport de particules denses par un écoulement. Nous comparerons trois situations : le transport par charriage, au fond de l’eau, le transport en suspension et le transport éolien en saltation. Nous expliquerons la formation des rides aquatiques ainsi que des dunes éoliennes et martiennes, et en donnerons les lois d’échelles. Dans un second temps, nous verrons comment la présence d’une surface libre modifie l’hydrodynamique au-dessus des reliefs du lit. Nous expliquerons la formation de dunes géantes, d’antidunes, de barres alternées ou de motifs en chevrons.
  • Pourquoi la surface du lac Ontario sur Titan est-elle si plate ? (le 25 novembre 2010) — Pierre Encrenaz
    Des observations récentes du lac de méthane liquide appelé Ontario au pôle Sud de titan montrent une planéité et une évaporation étonnantes. Quelques pistes seront évoquées pour expliquer ces résultats. Les dernières observations de l’astéroïde Lutetia en juillet 2010 seront aussi discutées.
  • La tropopause tropicale (TBC) (le 2 décembre 2010) — Bernard Legras
    La couche de la tropopause tropicale (TTL), de 13 à 19km, est une transition entre la troposphère dominée par la convection profonde et la circulation lente de la stratosphère. Parmi les phénomènes importants qui s’y déroulent, le passage de l’air à travers la tropopause tropicale très froide contrôle l’humidité très basse de la stratosphère, ce qui influence à la fois l’ozone et le bilan radiatif. La compréhension des processus se déroulant dans la TTL (détrainement convectif, transport, ondes de gravité), leur tendance et leur bonne représentation dans les modèles sont un des aspects méconnus mais importants du climat.
  • Peut-on parler de physique grâce à la fiction ? (le 16 décembre 2010) — Roland Lehoucq
    Les voies d’accès à la culture scientifique sont nombreuses et diverses (magazines, émissions radiophoniques ou télévisées, école, musées scientifiques, associations...). Cependant, on oublie souvent que les représentations mentales que le grand public se fait du fonctionnement de la science et des connaissances qu’elle produit sont aussi largement construites à partir des oeuvres de fiction, cinématographiques ou littéraires. Ainsi, celles-ci sont un bon point de départ pour aborder les connaissances scientifiques. Elles permettent d’attirer un public ordinairement peu enclin au questionnement scientifique, notamment parmi les plus jeunes. De surcroît, elles attachent les sciences, souvent absentes de la culture générale, à des oeuvres qui sont considérées comme en faisant partie (le septième et le neuvième art !). Le but ultime de cette démarche est de réveiller la curiosité, de développer l’esprit critique et la capacité à analyser un problème, de comprendre la méthode scientifique et bien sûr, voire surtout, de s’amuser en apprenant et en pratiquant les sciences. J’exposerai cette démarche en me fondant sur quelques exemples tirés des aventures de Tintin, de la fameuse saga cinématographique Star Wars et du récent blockbuster Avatar. Quelle est la nature de l’étoile Mystérieuse ? Qu’est-ce que la Force qu’utilisent les chevaliers Jedi ? Où se trouve la planète Pandora ? De façon assez étonnante, ce questionnement transforme le spectateur en un ”chercheur” dont la démarche intellectuelle se rapproche de celle d’un (astro) physicien...

Organisateurs

Emmanuel_Dormy

Emmanuel Dormy (CNRS)

Institut de Physique du Globe de Paris (IPGP), Géomagnétisme.
MHD in Astro- and Geophysics (ENS/IPGP).
LRA, Département de Physique.

Robson_Ferreira

Robson Ferreira (CNRS)

Chargé de recherche CNRS au Laboratoire Pierre Aigrain ancien Laboratoire de physique de la matière condensée.
activité principale: théorie, propriétés électroniques des nano-objets

En savoir plus sur le cycle...


Séminaires de recherche

Atelier Apprentissage 2005–2006

Atelier Apprentissage 2006–2007

Atelier Mathématiques et biologie 2004–2005

Atelier Mathématiques et biologie 2005–2006

Atelier Mathématiques et biologie 2006–2007

Conférences du département d’Études cognitives

Les lundis de la philosophie

Séminaire Archéologie des sanctuaires celtiques

Séminaire Art, création, cognition

Séminaire de l’ITEM : De l’archive manuscrite au scriptorium électronique

Séminaire de l’ITEM : Genèse et correspondances

Séminaire de l’ITEM : Genèses théâtrales

Séminaire de l’ITEM : Genèses, récit d’auteur / récit de critique

Séminaire de l’ITEM : L’écriture et le souci de la langue

Séminaire du Département de biologie

Séminaire du Département de chimie

Séminaire du Laboratoire de géologie

Séminaire du Laboratoire de météorologie dynamique

Séminaire du Laboratoire de physique statistique

Séminaire Environnement et société

Séminaire européen Sciences sociales et santé mentale

Séminaire général du Département d’informatique

Séminaire général du Département de physique

Séminaire général du Département TAO

Séminaire Histoire de l’enseignement supérieur français, XIX°–XX° siècles

Séminaire Histoire et philosophie des mathématiques

Séminaire Littérature et morale à l’âge classique

Séminaire Louis Pasteur de l’ENS : The design of photosynthesis

Séminaire MHD (SEMHD)

Séminaire Modélisation et méthodes statistiques en sciences sociales

Séminaire Musique et mathématiques

Séminaire Musique et philosophie

Séminaire Philosophie et mathématiques

Séminaire Vision algorithmique et biologique

Séminaire Vision artificielle / Équipe Willow

Séminaire Visualiser et modéliser le cerveau