Информация Новости физики

Inquisitor

Ословед
Feynman's double-slit experiment brought to life

Посмотреть вложение 2686803

The precise methodology of Richard Feynman's famous double-slit thought-experiment – a cornerstone of quantum mechanics that showed how electrons behave as both a particle and a wave – has been followed in full for the very first time.

Although the particle-wave duality of electrons has been demonstrated in a number of different ways since Feynman popularised the idea in 1965, none of the experiments have managed to fully replicate the methodology set out in Volume 3 of Feynman's famous Lectures on Physics.

"The technology to do this experiment has been around for about two decades; however, to do a nice data recording of electrons takes some serious effort and has taken us three years," said lead author of the study Professor Herman Batelaan from the University of Nebraska-Lincoln.

"Previous double-slit experiments have successfully demonstrated the mysterious properties of electrons, but none have done so using Feynman's methodology, specifically the opening and closing of both slits at will and the ability to detect electrons one at a time.

"Akira Tonomura's brilliant experiment used a thin, charged wire to split electrons and bring them back together again, instead of two slits in a wall which was proposed by Feynman. To the best of my knowledge, the experiments by Guilio Pozzi were the first to use nano-fabricated slits in a wall; however, the slits were covered up by stuffing them with material so could not be open and closed automatically."

In their experiments, which have been published today in the New Journal of Physics, Batelaan and his team, along with colleagues at the Perimeter Institute of Theoretical Physics, created a modern representation of Feynman's experiment by directing an electron beam, capable of firing individual electrons, at a wall made of a gold-coated silicon membrane.

The wall had two 62-nm-wide slits in it with a centre-to-centre separation of 272 nm. A 4.5 µm wide and 10 µm tall moveable mask, controlled by a piezoelectric actuator, was placed behind the wall and slid back and forth to cover the slits.

"We've created an experiment where both slits can be mechanically opened and closed at will and, most importantly, combined this with the capability of detecting one electron at a time.

"It is our task to turn every stone when it comes to the most fundamental experiments that one can do. We have done exactly that with Feynman's famous thought-experiment and have been able to illustrate the key feature of quantum mechanics," continued Batelaan.

Feynman's double-slit experiment

In Feynman's double-slit thought-experiment, a specific material is randomly directed at a wall which has two small slits that can be opened and closed at will – some of the material gets blocked and some passes through the slits, depending on which ones are open.

Based on the pattern that is detected beyond the wall on a backstop – which is fitted with a detector – one can discern whether the material coming through behaves as either a wave or particle.

When particles are fired at the wall with both slits open, they are more likely to hit the backstop in one particular area, whereas waves interfere with each other and hit the backstop at a number of different points with differing strength, creating what is known as an interference pattern.

In 1965, Feynman popularised that electrons – historically thought to be particles – would actually produce the pattern of a wave in the double-split experiment.

Unlike sound waves and water waves, Feynman highlighted that when electrons are fired at the wall one at a time, an interference pattern is still produced. He went on to say that this phenomenon "has in it the heart of quantum physics [but] in reality, it contains the only mystery."

More information: "Controlled double-slit electron diffraction" Roger Bach et al 2013 New J. Phys. 15 033018
http://iopscience.iop.org/1367-2630/15/3/033018/article

Journal reference: New Journal of Physics

Provided by Institute of Physics
 

Inquisitor

Ословед
Создана методика хранения фотонов рентгеновского излучения с сохранением....

...всех квантовых свойств.

Посмотреть вложение 2686823

Ученые, занимающиеся исследованием природы фотонов, стремятся «укротить» эту частицу и управлять ей точно так же, как исследователи электронов управляют электронами. Сегодня физикам отчасти удалось достичь некоторых результатов, однако относительно видимо
Автор: Роман Галиброда

Ученые, занимающиеся исследованием природы фотонов, стремятся «укротить» эту частицу и управлять ей точно так же, как исследователи электронов управляют электронами. Сегодня физикам отчасти удалось достичь некоторых результатов, однако относительно видимого и инфракрасного спектров.

Основываясь на достижениях в области кратковременной задержки рентгеновского излучения посредством ядерных возбуждений, немецкие физики разработали методику, позволяющую хранить фотон в рентгеновском спектре. Как заявили ученые, достижение позволяет сразу «захватить» фотон в так называемую «ловушку», после чего частица может быть выпущена, а свойства фотона останутся неизменными. Работа немецких ученых является важным шагом на пути к развитию экспериментальных фотонных систем, имеющих возможность использовать более короткие волны для размещения большого количества активных элементов в условиях маленького пространства.

Еще в середине 90-х годов прошлого века немецкая группа ученых из Гамбургского Университета провела эксперименты по задержке распада возбужденного ядра для железа (Fe-57). Суть опыта заключалась в том, что в сторону ядра в перпендикулярном направлении испускался поток поляризованного рентгеновского излучения с энергией 14,4 КэВ, эквивалентной энергии ядра. После этого основное состояние атома расщеплялось на 2, а возбужденное на 4 подуровня. Параметры эксперимента были подобраны таким образом, что каждое основное состояние переходило только к одному возбужденному состоянию. Таким образом, заполненными оставались лишь 2 подуровня возбуждения. В конечном итоге положение атома выглядело как суперпозиция, составленная из двух отмеченных состояний, а поскольку магнитные свойства в разных состояниях различались, то распад атома в основное состояние варьировался во времени.

По истечении нескольких секунд ученые подключали дополнительное магнитное поле, направленное перпендикулярно основному. После изменения направления магнитное поле «затягивало» в себя все подуровни возбужденного состояния. Таким образом, физики продемонстрировали, что если процедуру повторять в определенное время по отношению к колебаниям вероятности распада возбужденного состояния, то вероятность распада снижается. После отключения магнитного поля состояние распадалось, что приводило к новому излучению рентгеновского фотона, при этом энергия фотона была равна энергии импульса. Однако проблемой для ученых стало то, что остальные квантовые свойства фотона не сохранялись.

Для решения возникшей проблемы ученые другого немецкого учреждения – Института ядерной физики Макса Планка – предложили изменить существующую методику. В экспериментах также было задействовано рентгеновское излучение, «атакующее» мишень из Fe-57 в магнитном поле. Изменяя интенсивность и концентрацию атомов железа, физики спровоцировали появление всего лишь одного атома Fe-57 в течение цикла. Вместо включения дополнительного магнитного поля, как в предыдущих экспериментах, ученые предложили, наоборот, отключить основное поле в строго заданный момент колебания возбужденного состояния – спустя 10 наносекунд после активации рентгеновского импульса.

По расчетам исследователей, такое возбужденное состояние оказывается заблокированным, что не позволяет ему распадаться. После того, как магнитное поле активируется повторно, происходит распад состояния с излучением фотона рентгеновского спектра, свойства которого полностью совпадают со свойствами исходной частицы, вызывающей возбуждение. Таким образом, физики добились того, что рентгеновский фотон может сохраняться на протяжении 100 наносекунд. Особенностью разработанной методики сохранения частицы является то, что при изменении магнитного поля на противоположное фаза фотона рентгеновского спектра также меняется на противоположную.

На сегодняшний день результаты исследований фотона в рентгеновском спектре выглядят достаточно скудными, если сравнивать с аналогичными экспериментами в видимом спектре. Несмотря на это, теоретические изыскания физиков могут стать первым шагом на пути создания фотонных устройств, функционирующих на коротких волнах.

http://sfiz.ru
 

    Quiz

    очки: 1.828
    Нет комментариев

Inquisitor

Ословед
Long Predicted Atomic Collapse State Observed in Graphene

Mar. 7, 2013 — The first experimental observation of a quantum mechanical phenomenon that was predicted nearly 70 years ago holds important implications for the future of graphene-based electronic devices. Working with microscopic artificial atomic nuclei fabricated on graphene, a collaboration of researchers led by scientists with the U.S. Department of Energy's Lawrence Berkeley National Laboratory (Berkeley Lab) and the University of California (UC) Berkeley have imaged the "atomic collapse" states theorized to occur around super-large atomic nuclei.

Посмотреть вложение 2686833
An artificial atomic nucleus made up of five charged calcium dimers is centered in an atomic-collapse electron cloud. (Credit: Michael Crommie, Lawrence Berkeley National Laboratory)

"Atomic collapse is one of the holy grails of graphene research, as well as a holy grail of atomic and nuclear physics," says Michael Crommie, a physicist who holds joint appointments with Berkeley Lab's Materials Sciences Division and UC Berkeley's Physics Department. "While this work represents a very nice confirmation of basic relativistic quantum mechanics predictions made many decades ago, it is also highly relevant for future nanoscale devices where electrical charge is concentrated into very small areas."

Crommie is the corresponding author of a paper describing this work in the journal Science. The paper is titled "Observing Atomic Collapse Resonances in Artificial Nuclei on Graphene." Co-authors are Yang Wang, Dillon Wong, Andrey Shytov, Victor Brar, Sangkook Choi, Qiong Wu, Hsin-Zon Tsai, William Regan, Alex Zettl, Roland Kawakami, Steven Louie, and Leonid Levitov.

Originating from the ideas of quantum mechanics pioneer Paul Dirac, atomic collapse theory holds that when the positive electrical charge of a super-heavy atomic nucleus surpasses a critical threshold, the resulting strong Coulomb field causes a negatively charged electron to populate a state where the electron spirals down to the nucleus and then spirals away again, emitting a positron (a positively-charged electron) in the process. This highly unusual electronic state is a significant departure from what happens in a typical atom, where electrons occupy stable circular orbits around the nucleus.

"Nuclear physicists have tried to observe atomic collapse for many decades, but they never unambiguously saw the effect because it is so hard to make and maintain the necessary super-large nuclei," Crommie says. "Graphene has given us the opportunity to see a condensed matter analog of this behavior, since the extraordinary relativistic nature of electrons in graphene yields a much smaller nuclear charge threshold for creating the special supercritical nuclei that will exhibit atomic collapse behavior."

Perhaps no other material is currently generating as much excitement for new electronic technologies as graphene, sheets of pure carbon just one atom thick through which electrons can freely race 100 times faster than they move through silicon. Electrons moving through graphene's two-dimensional layer of carbon atoms, which are arranged in a hexagonally patterned honeycomb lattice, perfectly mimic the behavior of highly relativistic charged particles with no mass. Superthin, superstrong, superflexible, and superfast as an electrical conductor, graphene has been touted as a potential wonder material for a host of electronic applications, starting with ultrafast transistors.

In recent years scientists predicted that highly-charged impurities in graphene should exhibit a unique electronic resonance -- a build-up of electrons partially localized in space and energy -- corresponding to the atomic collapse state of super-large atomic nuclei. Last summer Crommie's team set the stage for experimentally verifying this prediction by confirming that graphene's electrons in the vicinity of charged atoms follow the rules of relativistic quantum mechanics. However, the charge on the atoms in that study was not yet large enough to see the elusive atomic collapse.

"Those results, however, were encouraging and indicated that we should be able to see the same atomic physics with highly charged impurities in graphene as the atomic collapse physics predicted for isolated atoms with highly charged nuclei," Crommie says. "That is to say, we should see an electron exhibiting a semiclassical inward spiral trajectory and a novel quantum mechanical state that is partially electron-like near the nucleus and partially hole-like far from the nucleus. For graphene we talk about 'holes' instead of the positrons discussed by nuclear physicists."

To test this idea, Crommie and his research group used a specially equipped scanning tunneling microscope (STM) in ultra-high vacuum to construct, via atomic manipulation, artificial nuclei on the surface of a gated graphene device. The "nuclei" were actually clusters made up of pairs, or dimers, of calcium ions. With the STM, the researchers pushed calcium dimers together into a cluster, one by one, until the total charge in the cluster became supercritical. STM spectroscopy was then used to measure the spatial and energetic characteristics of the resulting atomic collapse electronic state around the supercritical impurity.

"The positively charged calcium dimers at the surface of graphene in our artificial nuclei played the same role that protons play in regular atomic nuclei," Crommie says. "By squeezing enough positive charge into a sufficiently small area, we were able to directly image how electrons behave around a nucleus as the nuclear charge is methodically increased from below the supercritical charge limit, where there is no atomic collapse, to above the supercritical charge limit, where atomic collapse occurs."

Observing atomic collapse physics in a condensed matter system is very different from observing it in a particle collider, Crommie says. Whereas in a particle collider the "smoking gun" evidence of atomic collapse is the emission of a positron from the supercritical nucleus, in a condensed matter system the smoking gun is the onset of a signature electronic state in the region nearby the supercritical nucleus. Crommie and his group observed this signature electronic state with artificial nuclei of three or more calcium dimers.

"The way in which we observe the atomic collapse state in condensed matter and think about it is quite different from how the nuclear and high-energy physicists think about it and how they have tried to observe it, but the heart of the physics is essentially the same," says Crommie.

If the immense promise of graphene-based electronic devices is to be fully realized, scientists and engineers will need to achieve a better understanding of phenomena such as this that involve the interactions of electrons with each other and with impurities in the material.

"Just as donor and acceptor states play a crucial role in understanding the behavior of conventional semiconductors, so too should atomic collapse states play a similar role in understanding the properties of defects and dopants in future graphene devices," Crommie says.

"Because atomic collapse states are the most highly localized electronic states possible in pristine graphene, they also present completely new opportunities for directly exploring and understanding electronic behavior in graphene."

In addition to Berkeley Lab and UC Berkeley, other institutions represented in this work include UC Riverside, MIT, and the University of Exeter.

Berkeley Lab's work was supported by DOE's Office of Science. Other members of the research team received support from the Office of Naval Research and the National Science Foundation.

http://www.sciencedaily.com

 

    InConflict

    очки: 244
    Нет комментариев

    маска

    очки: 5.327
    Кастанеда

маска

Человек Сверх-я (с)Фрейд.Прогнил
Модератор
Новая астрономия из Антарктиды (нейтрино открыта физиками)

Inquisitor - Я вот буржуйский не учу и учить как то не собираюсь(подожду программы онлайн переовда в реальном времени,хорошо да).Пожалуйста если не трудно выкладывай на русском (если будет текст-понимаю что в ручную лень перепечатывать).Так как мне интересно почитать-хоть и не физик я,да и народ бы приучался,а так он не приучится.Может кто то заглянул бы и ума набрался дополнительно,а когда непонятно какие то квакозябры буржуйские.Мне двух русских достаточно))

http://oko-planet.su/science/scienceday/186440-novaya-astronomiya-iz-antarktidy.html
Впервые в истории зарегистрированы нейтрино, пришедшие не из Солнечной системы, а из дальних глубин Вселенной
108_etap_icecube-pic510-510x340-89499.jpg

Детектор обсерватории IceCube, размещенный под многометровой толщей льда
Фотография: B. Gudbjartsson/NSF
Григорий Колпаков
Впервые в истории науки зарегистрированы нейтрино, пришедшие не из Солнечной системы. 28 нейтрино, которые были рождены со сверхвысокими энергиями, обнаружены подледной нейтринной обсерваторией IceCube и, по мнению ученых, представляют собой первый шаг к совершенно новому разделу астрономии.
Нейтринная обсерватория IceCube — кубометр антарктического льда, напичканный более чем 5 тысячами сверхчувствительных фотодетекторов и прикрытый сверху полуторакилометровым ледяным щитом. Установка зафиксировала сверхэнергичные нейтрино, родившиеся вдали от Солнца и Солнечной системы вообще. Об этом Натан Уайтхорн, научный сотрудник IceCube, сообщил накануне в ходе симпозиума по астрофизике частиц. По его словам, за период с мая 2010-го по май 2012 года детекторы обсерватории зарегистрировали 28 таких пришельцев издалека.
Подобно тому как открытие бозона Хиггса оправдало создание Большого адронного коллайдера, поскольку именно для этой цели его и строили, обнаружение внесолнечных нейтрино оправдало существование обсерватории IceCube.
Создавая ее, астрофизики одной из главных целей ставили именно обнаружение внесолнечных нейтрино. Фрэнсис Хальзен, научный руководитель проекта IceCube, связывает это открытие с началом новой эры в астрономии.
Каждую секунду земной шар пронизывают миллиарды нейтрино (см. врез), и в основном это те частицы, которые родились либо в солнечных недрах, либо в верхних слоях земной атмосферы при столкновении с нею космических лучей. Те, что пришли издалека, и особенно те, что рождаются в процессах значительно более бурных, чем процессы, идущие внутри Солнца, встречаются намного реже. Благодаря тому что эти безмассовые (или почти безмассовые) частицы очень редко взаимодействуют с материей, они могут рассказать физикам о происходивших вдали событиях — о гамма-вспышках, о черных дырах, о рождении звезд…
До сих пор ни одной такой частицы обнаружено не было, хотя IceCube регистрирует в год около 30 тысяч «событий» из окрестностей Земли, по одному на каждые 20 минут.
Все 28 частиц, о которых идет речь, обладали энергией слишком высокой, чтобы иметь местное происхождение. Энергия каждой из них превышала 30 тераэлектронвольт, а о двух из них, обнаруженных в апреле прошлого года, с энергией выше петаэлектронвольта (то есть тысячи тераэлектронвольт), вскоре появится статья в журнале Physical Review Letters.
По словам Уайтхорна, говорить о том, откуда пришли эти частицы и в каких процессах они родились, преждевременно, такие события очень трудно анализировать, и здесь как минимум нужна куда более серьезная статистика.
Особенно это касается двух частиц с энергией выше петаэлектронвольта, которые были зарегистрированы в апреле 2012 года. Их открытие тогда очень взбудоражило физиков, частицам даже дали имена – Берт и Эрни.
Обнаружить нейтрино, родившиеся вдали от Солнечной системы, астрофизики мечтали давно, чуть ли не с тех самых пор, как научились их регистрировать. Поначалу многим казалось, что это не так уж и сложно, и только позже, с опытом, пришло понимание, что это можно сделать только на громадных ловушках и необходимы масштабные обсерватории наподобие IceCube. Обсерваторию строили пять лет, и только в декабре 2010 года она была полностью завершена, хотя работать начала значительно раньше. Это международный проект, возглавляемый Университетом Висконсин-Мэдисон и объединяющий 250 физиков и инженеров из США, Германии, Швеции, Бельгии, Швейцарии, Японии, Канады, Новой Зеландии, Австралии и Великобритании. Россия в этом проекте не участвует.
Нейтрино
 

    dok

    очки: 699
    +

    марка

    очки: 375
    Нет комментариев

    Zima

    очки: 7.781
    Нет комментариев

Inquisitor

Ословед
Рыбы-брызгуны плюются, используя законы физики

Посмотреть вложение 2828203There are some comments.... directly to Sir Mask's post, regarding the usage of russian source of science information...:huh1: Nun, ich werde verwenden, was verfügbar ist im russischen Internet, aber nicht... ах да точно :huh1:, учту Ваши пожелания выкладывать больше информации на русском, но должен Вам сообщить, что мне известно очень ограниченное число сайтов, где "свежие" новости физики, математики и астрономии приведены на русском языке (если знаете достойные ресурсы – поделитесь, пожалуйста). Как бы печально это не звучало, но все передовые достижения науки, особенно той тематики, которая меня интересует, находятся там... на Западе :yes: и логично предположить, что новая информация будет доступна не на русском.

Посмотреть вложение 2828213

Распространение водной струи, которую выбрасывает полосатый брызгун Toxotes jaculatrix. (А–С) — Фаза ускорения. (D–E) — Почти баллистическая фаза. F — Удар струи о насекомое. G — Постепенно увеличивающийся в процессе полета размер головной части струи; пунктирная линия обозначает траекторию полета струи. H — Различные траектории полета струи. I — Интерполяция головной части струи с эллипсоидом; верхний ряд — проекции головной части струи, средний ряд — вытянутые эллипсоиды, нижний ряд — наложение проекций и эллипсоидов. J — Распределение значений угла плевания. Изображение из обсуждаемой статьи в PLOS ONE

Рыбы-брызгуны давно поражали ученых удивительной способностью охотиться на насекомых, сбивая их сильной струей воды с надводной растительности. До сегодняшнего дня считалось, что рыба может столь сильно плеваться благодаря внутренним, доселе неописанным, структурам самого брызгуна. Но итальянские специалисты, проведя кинематический анализ водной струи, показали, что никаких специальных структур брызгуну не требуется. Рыба просто умело применяет законы гидродинамики, используя нестабильные свойства струи, что, кстати, напоминает механизм работы струйного принтера.

Рыбы-брызгуны, живущие в мангровых болотах, выработали уникальный способ охоты на насекомых. Как только они замечают свою жертву, сидящую на листе над водой, они метко плюются в нее сильной струей воды и сбивают насекомое, которое падает в воду и благополучно съедается. Со времен описания замечательного способа охоты брызгунов (а описан он был очень давно — в 1764 г.) ученые много ломали головы над механизмом, с помощью которого рыба может так сильно плеваться. Ученые искали какие-либо внутренние структуры наподобие тех, что известны у хамелеонов и саламандр, у которых мышечная энергия медленно накапливается в коллагеновых волокнах, а затем быстро высвобождается, в результате чего язык «выстреливает» с ускорением 500 м/с2. Но никаких морфологических структур, похожих на описанный механизм катапульты у хамелеона, у брызгунов найдено не было.

Чтобы разобраться в этом механизме, физики из Миланского Университета засняли процесс охоты полосатого брызгуна Toxotes jaculatrix на сверхскоростную видео-камеру (даже страшно представить — 1000 кадров в секунду!), после чего провели кинематический анализ видеокадров. Анализ дал удивительные результаты. Оказывается, брызгуну совсем не нужен особый внутренний механизм плевания, просто рыбы меняют скорость и ускорение выплевываемой жидкости и искусно используют законы гидродинамики.

В исследовании участвовали два брызгуна сходного размера (длиной 67 и 61 мм), которых поместили в плоский аквариум и заставили плевать через рамку с узкой щелью. Это было сделано для того, чтобы рыба всегда располагалась в профиль к видеокамере (как на рис. 1). Только в этом случае можно было получить снимки струи с постоянного ракурса. Оказалось, что струя вылетает изо рта брызгуна с ускорением (рис. 1, А–С; рис. 2, А–В), а потом летит почти по баллистической траектории (рис. 1, D–E), то есть в основном под действием силы тяготения и силы аэродинамического сопротивления воздуха. В струе можно было выделить большую головную часть и тонкий «хвост», причем головная часть постепенно увеличивалась в процессе полета (рис. 1, G, I). В диапазоне расстояний, на которые плевали рыбы (97–153 мм), траектория полета струи была сравнима с линейной независимо от угла плевка (рис. 1, H). Но у рыб все-таки наблюдался предпочтительный угловой сектор от 70 до 80 градусов (рис. 1, J), под которым они чаще всего плевали.

Авторы попытались подробно разобраться в том, что же происходит в первые 10–15 мс плевка. Струя воды вылетает изо рта рыбы со сравнительно малой скоростью 2 м/с и с сильным ускорением 200–400 м/с2 (рис. 2, А–В). В течение 15 мс ускорение падает до нуля. Начальное ускорение головной части струи приводит к скорости около 4 м/с. Примечательно, что постепенно увеличивается размер головной части (рис. 2, С), что свидетельствует о более высокой скорости хвостовой, чем головной частей струи. Головная часть увеличивается за счет того, что жидкость переходит туда из хвоста. Почему это происходит? Авторы утверждают, что это получается просто потому, что сама рыба меняет скорость выплевываемой жидкости, постепенно ее увеличивая.

Посмотреть вложение 2828223

Кинематика головной части струи. Изменение скорости (А), ускорения (В), размера (С) и продольной длины (D) головной части со временем. Разные цвета соответствуют разным траекториям полета, показанным на рис. 1, H. Изображение из обсуждаемой статьи в PLOS ONE

Авторы рассчитали, как меняется сила головной части струи во время полета и какова она в момент удара о насекомое, используя всем известный второй закон Ньютона. Они, конечно, сделали некоторые допущения: по расчетам жертва должна быть неподвижна, поверхность ее полностью смачиваема, а отражение от насекомого должно полностью отсутствовать. В результате они получили постепенно нарастающую силу (рис. 3, А), которая в момент удара достигает в среднем 200 миллиньютонов. Среднее насекомое (например, муха или клоп) массой около 100 мг обычно цепляется за лист с силой примерно 20 мН. Таким образом, сила струи при ударе почти на порядок превышает силу, с которой жертва хватается за субстрат, что объясняет легкость, с которой сбивается насекомое.

Кроме того, физики рассчитали мощность, которую несет головная часть струи. В момент плевка мощность на единицу массы очень мала, потому как сами мышцы, которые задействованы при плевании, очень маленькие (всего 178 мг у одной рыбы и 135 мг у другой). Однако мощность сильно увеличивается за время полета, достигая при ударе величин 2950 и 2820 Вт/кг у первой и второй рыбы соответственно (рис. 3, D). Оказалось, что это существенно более высокие показатели, чем известны для мышц других позвоночных (около 500 Вт/кг).

Посмотреть вложение 2828233

Сила и мощность головной части струи. А — Временная эволюция (см. time evolution) силы струи в момент удара. Розовая область обозначает диапазон значений силы, с которой различные насекомые цепляются за субстрат. В — Временная эволюция удельной мощности, необходимой для мышц, которые задействованы при плевании, при допущении, что нет усиливающего гидродинамического механизма. С — Временная эволюция удельной мощности, мгновенно передаваемой мышцами брызгуна головной части струи. Горизонтальная пунктирная линия на (В) и (С) соответствует значению 500 Вт/кг, показанному для мышц позвоночных. Разные цвета соответствуют разным траекториям полета, показанным на рис. 1, H. D — Распределение удельной мощности при ударе у брызгуна № 1. Е — Движение секции струи показано в течение трех моментов записи, разделенных промежутком времени ∆t. Ускорение жидкости в момент выхода из сопла (=момент плевка) определяет скорость распространения струи в ее передней части (u) и скорость в хвостовой части (u+∆u). Разница в скоростях ∆u определяет сжатие секции в длину и наоборот, увеличение ее радиуса. Изображение из обсуждаемой статьи в PLOS ONE

Авторы также посчитали мощность струи, которую должны были бы развивать мышцы при плевке, чтобы задать струе необходимое ускорение, показанное на рис. 2, В. Если предположить, что у нас нет усиливающего гидродинамического механизма, а есть внутренний механизм наподобие механизма катапульты у хамелеона, то изменение мощности, развиваемой мышцами, соответствовало бы графику на рис. 3, В. Однако в реальности у брызгуна мощность мышц колеблется существенно ниже уровня 500 Вт/кг (Рис. 3, С). Эти результаты прекрасно согласуются с отсутствием внутреннего усиливающего механизма у брызгуна. Они подтверждают, что мощность постепенно передается от мышц к хвостовой части струи, а затем — к ее головной части, что приводит к медленному накоплению энергии во внешней среде.

Авторы проводят любопытную аналогию струи брызгуна с пульсирующей струей чернильного, или струйного, принтера. Принцип работы струйного принтера показан на рис. 3, Е. В момент начальной фазы ускорения скорость u в передней части струи меньше, чем в хвостовой части. Поэтому в процессе полета струи передний и задний «концы» сближаются и длина цилиндрической секции уменьшается. Поскольку масса и движущая сила цилиндрической секции остаются постоянными, ее радиус увеличивается. Таким образом, в результате мы имеем тонкий и широкий цилиндрический срез, перпендикулярный оси струи. Очень похожую картину мы наблюдаем в водной струе, выплевываемой брызгунами. Не сговариваясь, и человек, и природа используют одни и те же физические законы.

Название рода Toxotes означает по-гречески «лучник». Авторы подчеркивают, что это на редкость правильное название. Лучник использует внешнюю силу, натягивая тетиву и запасая тем самым энергию в согнутой дуге лука. Брызгуны также используют внешний механизм для усиления мышечной силы, хотя и основанный на другом принципе. Замечательно то, что эти рыбы обошлись без создания специальных внутренних приспособлений, а всего лишь использовали существующие законы физики.

Источник: Alberto Vailati, Luca Zinnato, Roberto Cerbino. How archer fish achieve a powerful impact: hydrodynamic instability of a pulsed jet in Toxotes jaculatrix // PLOS ONE. 2012. 7(10): e47867.

http://elementy.ru




 

    Quiz

    очки: 2.956
    Нет комментариев

Inquisitor

Ословед
Создан лазерно-плазменный ускоритель нового поколения

Посмотреть вложение 2828243

Схема двухступенчатого полностью оптического лазерно-плазменного ускорителя электронов длиной несколько миллиметров (описание см. в тексте). Изображение из статьи J. S. Liu et al.

Сразу две группы экспериментаторов сконструировали новый двухступенчатый лазерно-плазменный ускоритель. Электронный сгусток создается и ускоряется до энергии около 1 ГэВ одним-единственным лазерным импульсом, причем длина тандема «инжектор плюс ускоритель» не превышает одного сантиметра.

Масштабы современных ускорителей элементарных частиц впечатляют. Длина туннеля Большого адронного коллайдера составляет 27 км, а проектируемый сейчас линейный электрон-позитронный коллайдер следующего поколения будет иметь около 50 километров в длину. Такие колоссальные для научных приборов размеры — не прихоть физиков; они возникают по той простой причине, что современные технологии не способны достаточно быстро ускорять элементарные частицы.

Вообще, ускоряют частицы сильным электрическим полем, причем, чем сильнее поле, тем эффективнее ускорение. В современных ускорителях используется электрическое поле стоячей радиоволны, которую накачивают и удерживают в специальных металлических сверхпроводящих резонаторах. Но у этой методики есть свой технологический предел: если радиоволна будет слишком мощной, по поверхности резонатора будут течь слишком большие токи, и материал таких токов просто не выдержит. Поэтому предел электрических полей в резонаторах на сегодня — примерно 20 мегавольт на метр (МВ/м), и подняться существенно выше этого значения вряд ли удастся. Это означает, что достичь энергии 500 ГэВ (планируемая энергия электронов на будущем линейном коллайдере) можно лишь на длине 25 км, из-за чего линейный коллайдер становится не только исключительно сложным, но и очень дорогим прибором.

Возможным решением этой проблемы может стать принципиально новая технология ускорения элементарных частиц. Такая технология существует — это так называемое кильватерное ускорение электронов в плазме, и оно уже даже было реализовано экспериментально. В этой схеме сверхсильное электрическое поле создается не в металлической структуре, а в маленьком движущемся вперед пузырьке плазмы, который порождается либо сверхсильным лазерным импульсом, либо компактным сгустком частиц. Электронный сгусток влетает в этот пузырек и, словно оседлав волну, за короткое время ускоряется до больших энергий (подробности см. в популярной статье Плазменные ускорители).

Эксперимент показал, что электрическое поле в таком плазменном ускорителе может в тысячи раз(!) превышать то, что достижимо в резонаторах. Например, в 2006 году было достигнуто ускорение электронов до энергии 1 ГэВ на участке длиной чуть более 3 см, что отвечает ускоряющему полю напряженностью 30 ГВ/м. Эти достижения открывают головокружительные перспективы — ведь с помощью технологии кильватерного ускорения тот же электрон-позитронный коллайдер на 500 ГэВ можно, казалось бы, уместить в сотню метров. Однако не всё так просто: есть целый ряд трудностей, которые потребуется преодолеть, прежде чем подобные проекты станут реальностью.

Во-первых, такая методика опробована только на участках длиной в сантиметры (впрочем, сейчас появляются предложения, как эту трудность преодолеть). Поэтому для достижения по-настоящему высоких энергий потребуется ускорять частицы, прогоняя их через множество последовательных «ступеней ускорителя». Однако такое комбинирование ускоряющих ячеек пока что не было реализовано. Во-вторых, ускоритель не должен слишком сильно размазывать сгусток ускоренных частиц ни в пространстве, ни по углам расхождения, ни по энергии.

В июле в журнале Physical Review Letters появились сразу две статьи, в которых сообщается о преодолении этих трудностей. Более конкретно, две группы исследователей независимо друг от друга сконструировали двухступенчатый полностью оптический лазерно-плазменный ускоритель электронов. Схема эксперимента показана на рис. 1. Для примера здесь изображена установка китайской группы физиков; схема эксперимента в статье американской группы была очень похожей.

Сердцем установки являются две соосно соединенных цилиндрических камеры миллиметровых размеров. Первая камера заполнена смесью гелия и кислорода; вторая — чистым гелием. Мощный сверхкороткий фокусированный лазерный импульс проходит последовательно через обе камеры, ионизируя газ и создавая плазменный пузырек сначала в первой, а затем во второй камере. Рабочим газом для создания плазмы и ускорения электронов является гелий, а кислород в первой камере нужен как источник электронов. Установка не зря называется «полностью оптическим ускорителем»: никаких внешних электронов в нее не поступает. Электроны порождаются в первой камере за счет ионизации атомов кислорода под действием лазерной вспышки, там же они предварительно разгоняются, затем впрыскиваются во вторую камеру, разгоняются там еще больше (за счет той же самой лазерной вспышки) и потом выходят наружу.

Таким образом, на длине меньше сантиметра физики умудрились создать целый ускорительный комплекс: инжектор с предварительным ускорителем, линия передачи, а затем основной ускоритель. Подчеркнем, что эти две секции ускорителя работают не независимо, а в едином тандеме: один-единственный сверхкороткий лазерный импульс, идущий сквозь обе камеры, выполняет за один проход всю работу: порождает нужные пузырьки плазмы, генерирует компактный электронный сгусток, а затем разгоняет его в двух камерах.

Опыты показали, что энергия электронного сгустка на выходе зависит как от длины ускоряющей секции, так и от мощности вспышки. Зависимость от мощности лазера оказалась не совсем простой: наибольшая энергия электронов на выходе (0,8 ГэВ) достигалась вовсе не при максимальной мощности вспышки. Это связано с тем, что сгустку электронов надо не просто попасть в плазменный пузырек, но и расположиться как можно ближе к его задней стенке — там электрическое поле сильнее всего.

Посмотреть вложение 2828253
Энергетическое (по горизонтали) и угловое (по вертикали) распределение электронов после инжектора (вверху) и на выходе двухступенчатого ускорителя (внизу). Изображение из статьи B. B. Pollock et al.

Еще одним успехом этой двухступенчатой схемы ускорения стали замечательные характеристики сгустка электронов на выходе. На рис. 2 показано распределение электронов по энергии и по угловому расхождению сгустка; изображение вверху отвечает только одной стадии (инжектор без ускорителя), изображение внизу — полному тандему. В обоих случаях по горизонтали показана энергия электронов, по вертикали — угловое расхождение в миллирадианах (угол в один градус — это примерно 17 мрад). Картинки вверху и внизу отличаются разительно. После стадии инжектора электроны разгоняются примерно до 100 МэВ, но их энергия размазана в широком интервале. Однако после прохождение второй ступени ускорителя пучок не только приобретает энергию почти 0,5 ГэВ, но и становится намного компактнее, как по энергии, так и по углам.

Авторы обеих работ отмечают, что нынешнюю схему можно еще оптимизировать, достигнув при этом энергий 10 ГэВ. Таким образом, получение компактных многогэвных электронных сгустков в чисто оптическом и практически настольном эксперименте кажется делом ближайшего будущего. Конечно, такой лазерный ускоритель пока не может тягаться с нынешними большими коллайдерами по светимости (т. е. интенсивности пучков). Однако такому пучку, получаемому на очень компактной и относительно дешевой установке, найдется и множество других применений, как научных, так и прикладных. Напомним, что сейчас в мире существует примерно 20 тысяч ускорителей, из которых только около сотни заняты изучением физики микромира, а остальные используются в биомедицинских целях, в материаловедении, в системах безопасности и т. д. Поэтому любой новый тип компактного ускорителя частиц будет тут же взят на вооружение (см. например новость Первое применение лазерных ускорителей будет медицинским).

Источники:
1) J. S. Liu et al, All-Optical Cascaded Laser Wakefield Accelerator Using Ionization-Induced Injection // Phys. Rev. Lett. 107, 035001 (2011).
2) B. B. Pollock et al, Demonstration of a Narrow Energy Spread, ~0.5GeV Electron Beam from a Two-Stage Laser Wakefield Accelerator // Phys. Rev. Lett. 107, 045001 (2011).

http://elementy.ru
 

Inquisitor

Ословед
Квантовая телепортация: развенчивая мифы

Артём Коржиманов, физик, победитель конкурса научных блогов 2013 года

Как сообщается на сайте журнала Nature, 9 августа 2012 года вышла статья китайских учёных, которым удалось осуществить квантовую телепортацию на расстояние около 97 км. Это новый рекорд, хотя в arXiv.org ещё с 17 мая лежит пока нигде не опубликованная статья другой группы, которая сообщает об удачных экспериментах по телепортации на расстояние около 143 км.

Несмотря на то, что явление квантовой телепортации изучается уже довольно давно, у людей, далёких от науки, отсутствует понимание того, что же это такое. Попробую развеять некоторые мифы, связанные с этой частью науки.

Миф 1: квантовая телепортация теоретически позволяет телепортировать любой объект

На самом деле, при квантовой телепортации передаются не физические объекты, а некая информация, записанная при помощи квантовых состояний объектов. Обычно этим состоянием является поляризация фотонов. Как известно, фотон может иметь две различные поляризации: например, горизонтальную и вертикальную. Их можно использовать как переносчики побитовой информации: скажем, 0 будет соответствовать горизонтальной поляризации, а 1 – вертикальной. Тогда передача состояния одного фотона другому обеспечит и передачу информации.

В случае квантовой телепортации передача данных происходит следующим образом. Вначале создаётся пара так называемых сцепленных фотонов. Это означает, что их состояния оказываются в некотором смысле связанными: если у одного при измерении поляризация окажется горизонтальной, то у другого всегда будет вертикальной, и наоборот, причём и тот и другой вариант возникает с одинаковой вероятностью. Затем эти фотоны разносятся: один остаётся у источника сообщения, а другой уносится его приёмником.

Когда источник хочет передать своё сообщение, он связывает свой фотон с ещё одним фотоном, состояние (то есть поляризация) которого точно известно, а затем производит измерение поляризации обоих своих фотонов. В этот момент согласованным образом меняется состояние и фотона, находящегося у приёмника. Измерив его поляризацию и узнав по другим каналам связи результаты измерений фотонов источника, приёмник может точно установить, какой бит информации был передан.

Миф 2: с помощью квантовой телепортации можно передавать информацию со скоростью, превышающей скорость света

Действительно, согласно современным представлениям, передача состояний между сцепленными фотонами происходит мгновенно, таким образом, может возникнуть ощущение, что и информация передаётся мгновенно. Это, однако, не так, поскольку хотя состояние и было передано, прочитать его, расшифровав послание, можно только после передачи дополнительной информации о том, каковы же поляризации двух фотонов, находящихся у источника. Эта дополнительная информация передаётся по классическим каналам связи и скорость её передачи превышать скорость света не может.

Миф 3: получается, что квантовая телепортация совершенно неинтересна

Конечно, на практике оказывается, что процесс квантовой телепортации, возможно, не так захватывающ, как это может показаться по его названию, однако и он может получить важное практическое применение. В первую очередь это безопасная передача данных. Всегда можно перехватить сообщение, посланное по классическим каналам связи, однако воспользоваться им сможет только тот, у кого находится второй сцепленный фотон. Все остальные прочитать сообщение просто не смогут. К сожалению, пока до реального использования этого эффекта далеко, на данном этапе идут лишь научные эксперименты, требующие достаточно сложной аппаратуры.

Если вас заинтересовала эта тема, возможно, вам будет также интересно почитать про то, что в квантовом мире, оказывается, разоблачить невежество сложнее, чем в классическом.

Источник: http://flerant.blogspot.ru/2012/08/kvantovaya-teleportatsiya-razvenchivaya-mify.html
 

Inquisitor

Ословед
Перешел в бесполезный режим

Наука потеряла телескоп «Кеплер».

Посмотреть вложение 2828263
Телескоп «Кеплер»
Фото: NASA


Телескоп «Кеплер» вышел из строя. У «охотника за планетами» сломался один из трех оставшихся гироскопов, а компьютер космической обсерватории перешел в безопасный режим. Вероятность того, что инженерам NASA удастся каким-то образом реанимировать сломавшийся гироскоп, стремится к нулю, а без него все прецизионное оборудование «Кеплера» бесполезно. Это означает, что пора подвести итоги революционной миссии, изменившей представления астрономов об экзопланетах.

В течение всего периода работы «Кеплер» по праву был завсегдатаем научных новостей. Это неудивительно: всего четверть века назад астрономы не могли и надеяться узнать так много о планетах, удаленных на расстояние в тысячи световых лет. Масштаб прогресса становится ясен, если вспомнить о том, что Плутон (хоть и разжалованный несколько лет назад в карликовые планеты) был открыт только в 1930 году. А ведь расстояние до него как минимум в полтора миллиона раз меньше, чем до ближайшей экзопланеты, открытой «Кеплером».

Планеты, в отличие от звезд, не излучают собственный свет, а их отраженный свет настолько слаб, что увидеть его можно лишь в исключительных случаях. Поэтому для поиска экзопланет ученые преимущественно используют два косвенных метода — допплеровский и транзитный. Первый основан на обнаружении смещения звезды вокруг общего с планетой центра массы, а второй фактически сводится к поиску тени планеты. И тот, и другой, впрочем, имеют свои недостатки.

Допплеровский метод полагается на высокоточные спектрометры, которые могут зафиксировать шатание звезды вдоль оси, направленной на наблюдателя: если звезда удаляется, ее свет смещается в красную область, если приближается — в синюю. На оптический спектр практически не оказывает влияния атмосфера, поэтому «ловить планеты» допплеровским методом можно с Земли при помощи обычных телескопов.

Посмотреть вложение 2828273
Две из 42 светочувствительных матриц телескопа вышли из строя вскоре после начала работы, при этом площадь покрытия уменьшилась на 5 процентов.
Фото: NASA

Однако значительные колебания могут быть вызваны только очень массивными объектами, расположенными вблизи звезды, поэтому большинство найденных таким способом экзопланет неминуемо оказывается гигантами. Если же нам интересны скорее небольшие, более схожие с Землей планеты, тогда этот метод поиска нам не подойдет.

Транзитный метод основан на анализе интенсивности света (блеска) звезды, а не спектра. А это значит, что телескоп, охотящийся за экзопланетами транзитным методом, должен быть выведен не только за пределы атмосферы, но и за пределы окрестностей Земли, которая в противном случае будет мешать прибору своим постоянно меняющимся отраженным светом.

Именно поэтому 7 марта 2009 года «Кеплер» стартовал на гелиоцентрическую орбиту, похожую на орбиту самой Земли. Большая удаленность обусловила исключительную чувствительность прибора, однако она же стала для него роковой: если бы телескоп, подобно «Хабблу», находился поблизости, возникшую поломку теоретически можно было бы починить. Это, кстати говоря, с «дедушкой» космических телескопов уже неоднократно проделывали (впрочем, общая стоимость «Кеплера» меньше стоимости сервисного полета шаттла, да и шаттлов сейчас нет).

Посмотреть вложение 2828283
Основное зеркало телескопа имеет диаметр чуть меньше метра.
Фото: NASA


«Кеплер» существенно отличался от «Хаббла» и в другом отношении. Если «Хаббл», как телескоп общего назначения, может по запросу снимать интересные объекты, находящиеся в разных частях космоса, то «Кеплер» был нацелен строго на определенный участок неба в нашем рукаве Млечного пути. Дело в том, что для обнаружения потенциальной планеты нужно зафиксировать как минимум три транзита — три прохождения планетой диска ее звезды (иначе просто непонятно, чем было вызвано падение ее яркости). Дожидаться таких транзитов можно долго (а именно ровно столько, сколько потребуется планете для того, чтобы трижды пройти свою орбиту), поэтому с каждым днем наблюдений общая их ценность повышалась. Если бы аппарат проработал до 2016 года, как планировалось при продлении срока основной миссии, Кеплер потенциально мог бы обнаружить планеты на орбитах, где год вдвое длиннее земного.

Вообще говоря, количество транзитов, необходимых для надежного поиска планет, зависит от чувствительности прибора, а с ней у «Кеплера» все вышло не так гладко, как принято считать. Реальный уровень шума оказался в два раза больше, чем рассчитывали создатели, и, хотя большая его часть возникла «по вине» нестабильно излучающих звезд, это существенно снизило качество собираемой телескопом статистики.

Посмотреть вложение 2828293
Глубина просвечиваемого телескопом пространства составляет три тысячи световых лет. При этом он смотрит в сторону от центра Млечного Пути.
Изображение: NASA

Проблема с шумом в данных оказалась не единственной неприятностью астрономов. Чуть менее года назад, 14 июля, отказал один из четырех гироскопов, поддерживающих положение «Кеплера». Сама по себе поломка не привела к каким-то ощутимым результатам, однако телескоп лишился единственного запасного стабилизатора. Поэтому, когда спустя всего полгода инженеры обнаружили неисправности еще в одном гироскопе, ситуация оказалась крайне серьезной.

17 января NASA сообщило о том, что в одном из стабилизаторов сильно возросло трение, что может говорить о его механическом повреждении. Работа телескопа была прекращена на 10 дней, за которые инженеры должны были определиться со способами решения проблемы. 29 января «Кеплер» вернулся к обычной работе, однако датчики продолжали фиксировать аномальное трение.

14 мая во время попытки связаться с телескопом (прибор ежемесячно сбрасывает данные на Землю) ученые выяснили, что компьютер «Кеплера» оказался в безопасном режиме. Из сообщения NASA следует, что это была не первая попытка связи в мае 2013 года, и в прошлый раз компьютер находился в таком же состоянии. Вкупе с информацией, полученной от механических датчиков, этот факт почти однозначно говорит о том, что барахливший ранее гироскоп вышел из строя, а вместе с ним оказался бесполезен и весь телескоп.

Сейчас инженеры перевели «Кеплер» в особый топливосберегающий режим (Point Rest State) и поддерживают положение аппарата при помощи двигателей. Так может продолжаться достаточно долго — от нескольких месяцев до нескольких лет. Однако, если специалисты не найдут какой-либо экстраординарный способ реанимировать хотя бы один из сломавшихся гироскопов, для поиска экзопланет такой прибор будет совершенно бесполезен.

Выполнил ли «Кеплер» свою миссию? С формальной точки зрения — да, причем еще в ноябре 2012 года, по завершении изначально назначенных трех с половиной лет работы. Финансирование расширенной миссии было продлено до 2016 года, и нет сомнений, что было бы продлено и дальше — если бы только телескоп продолжал работать (для охлаждения матриц устройства не использовались сжиженные газы, поэтому он мог работать очень долго).

Гораздо важнее, однако, тот факт, что «Кеплер» коренным образом изменил представление астрономов об экзопланетах. Дело в том, что, находясь в Солнечной системе и не имея информации о других планетах, астрономы не знают, насколько наша планетарная система особенная и насколько распространены планеты, подобные нашей. Вопрос уникальности Земли влияет на самые разные области знания — от обычной астрофизики до космологии и антропного принципа.

Благодаря данным «Кеплера» теперь мы точно знаем ответ: таких планет, как Земля, и планет, лишь немного превосходящих ее по массе, существует огромное количество. По крайней мере в нашей галактике. Тех и других лишь немного меньше, чем всех остальных экзопланет, включая газовые гиганты, а ведь именно их преимущественно и находили старым допплеровским методом. «Кеплер» позволил установить, что примерно каждая шестая звезда в нашей галактике содержит планету, похожую размером на Землю, и многие из них находятся в зоне обитаемости — там, где возможно существование жидкой воды.

Посмотреть вложение 2828303
Сводная диаграмма результатов работы телескопа: планет, подобных Земле, и суперземель, чья масса имеет тот же порядок, лишь немногим меньше, чем газовых гигантов.
Изображение: NASA

Гибель «Кеплера» нечем восполнить. На данный момент других подобных телескопов нет (маленький европейский COROT не в счет), и когда они появятся — неясно. Утешением, хотя и очень слабым, может быть тот факт, что еще не все собранные телескопом данные были опубликованы. Кроме того, в последние несколько месяцев появились работы, в которых ученые предлагают взглянуть совершенно по-другому на уже полученные телескопом данные. Было предложено искать в колебаниях яркости звезд не транзитные спады, а другие следы — либо релятивистское микролинзирование, либо еще более сложный набор эффектов влияния наличия планеты вблизи от звезды. Насколько эффективны новые методы анализа данных, покажет время. В любом случае архив «Кеплера» останется с нами.

http://lenta.ru
 

Inquisitor

Ословед
Ученые провели эксперимент по измерению показателей гравитации антиводорода

Ученые, занимающиеся изучением физических явлений в рамках проекта Alpha, провели эксперименты, в результате чего впервые за всю историю удалось получить данные о показателях гравитации антиводорода. Устройство, с помощью которого были получены новые свед
Автор: Роман Галиброда
Написал: halibroda Дата: 2013-05-05 14:14

Посмотреть вложение 2828313

Ученые, занимающиеся изучением физических явлений в рамках проекта Alpha, провели эксперименты, в результате чего впервые за всю историю удалось получить данные о показателях гравитации антиводорода. Устройство, с помощью которого были получены новые сведения, представляет собой нечто, похожее на магнитную ловушку, то есть способна запускать процесс движения частиц антивещества под воздействием гравитации Земли. Для наглядности эксперимент можно сравнить с опытами по сбрасыванию различных предметов с высоты, только на микроуровне.

Как показали величины измерений, зафиксированные во время проведения эксперимента, гравитационная масса антиводорода оказалась в пределах 75% от расчетной массы. Более того, из-за существенно низкой статической значимости, равной 5%, показания можно считать не достаточно точными.

По словам Беркли Фаянса, профессора Калифорнийского университета и руководителя проекта, соотношение 5 к 100 действительно является слишком малым, чтобы с полной достоверностью заявлять о том, что ученым известны реальные показатели гравитации водорода. Несмотря на это, Беркли Фаянс заявил, что работы по эксперименту будут упорно продолжаться до получения максимально объективных показаний. Объясняется такое пристальное внимание к вопросу тем, что изучение гравитационного действия антиматерии может дать важную информацию об асимметрии, которая влияет на распределение и вещества, и антивещества во всей Вселенной.

Сегодня существуют некоторые теоретические изыскания о материи и антиматерии. Однако, доказать экспериментально справедливость или несостоятельность тех или иных доводов пока никому не удалось.

http://sfiz.ru
 

Inquisitor

Ословед
Изобретено устройство, позволяющее концентрировать энергию магнитного поля

Известно, что лучи света способны менять свой угол распространения, проходя через границы воды либо воздуха. Подобной природой обладают и магнитные поля, которые также искажаются при попадании на определенную границу с объектами которые обладают магнитным
Автор: Роман Галиброда
Написал: halibroda Дата: 2013-01-29 18:12

Известно, что лучи света способны менять свой угол распространения, проходя через границы воды либо воздуха. Подобной природой обладают и магнитные поля, которые также искажаются при попадании на определенную границу с объектами которые обладают магнитными свойствами. Используя этот факт, испанские ученые сделали предположение, касающееся того, как должны выглядеть устройства, концентрирующие магнитное поле в определенной точке пространства. Как заявили специалисты, подобные устройства помогут создавать более чувствительные датчики или же открыть новую веху в области передачи магнитного потока из одной точки в другую.

Сегодня техника, которая выполняет задачи по управлению светом, называется трансформационной оптикой. Впервые она стала применяться более 15 лет назад. В наши дни трансформационная оптика используется для управления светом и разработки принципиально новых материалов. Основные функции трансформационной оптики сводятся к перенаправлению прямолинейно распространяющего света по более сложным траекториям. Математически этого выглядит как своеобразный алгоритм, который, используя электромагнитные свойства конкретной точки, позволяет направлять свет по требуемой траектории.

Испанские физики, представляющие Независимый университет Барселоны, в своих теоретических домыслах предложили конструкцию устройства, которое могло бы концентрировать часть энергии магнитного поля в маленьком пространстве, упрощая обнаружение и увеличивая плотность. Подробности исследований опубликовало научное издание Physical Review Letters. В рамках эксперимента физики теоретически поместили в центр магнитного поля цилиндр с бесконечно маленькой толщиной. После этого были выполнены преобразования, которые обеспечили оболочке конечную толщину, сохраняя внешний диаметр и сокращая внутренний диаметр. Такие манипуляции позволили сконцентрировать магнитное поле в более мелком масштабе, при этом увеличилась его интенсивность. Первоначально сверхтонкая оболочка была лишена внутреннего магнитного поля, а оболочка конечной толщины аналогично освободилась от силовых линий.

Чтобы фокусировка магнитного поля в меньшем объеме с большей интенсивностью стала возможна, необходимо обеспечить условия, при которых поле должно свободно проходить через оболочку извне в направлении центра, при этом степень магнитной проницаемости в радиальном направлении должна быть бесконечной, а проницаемость по окружности должна быть нулевой. К сожалению, в природе материала с такими идеальными характеристиками не существует. Все же физики уверены, что наиболее подходящим материалом может стать структура, представляющая собой сочетание клиньев сверхпроводника и ферромагнитного материала. Устройство, если его создать на основе отмеченной структуры, сможет фокусировать магнитное поле внутри оболочки.

По словам исследователей, теоретические изыскания по изобретению устройства для концентрации энергии магнитного поля могут помочь увеличить эффективность в области беспроводной передачи энергии. Магнитное поле от источника, помещенного внутрь оболочки, сможет обеспечить высокий уровень напряженности за ее пределами. Вторая оболочка, помещенная рядом с исходной, сможет концентрировать часть энергии поля внутри себя. Говоря иначе, статичное магнитное поле нельзя увязывать с передачей энергии, но если поле будет динамичным и его изменения будут медленно меняющимися, то теоретические выводы ученых верны.
 

Inquisitor

Ословед
Физики обнаружили еще одну "уязвимость" антиматерии

Физики, работающие в эксперименте LHCb на Большом адронном коллайдере, увидели нарушение симметрии в распаде нейтральных Bs-мезонов.

Посмотреть вложение 2828323

МОСКВА, 24 апр — РИА Новости. Физики, работающие в эксперименте LHCb на Большом адронном коллайдере, в ходе изучения распада нейтральных Bs-мезонов, обнаружили еще один тип отклонения от симметрии между материей и антиматерией, что поможет ученым понять, почему в наблюдаемой Вселенной господствует обычная материя, а антивещества почти нет.

"Мы увидели нарушение симметрии в распаде нейтральных Bs-мезонов. Это мезоны, которые состоят из b-кварка и s-кварка. Впервые со статистической достоверностью в пять стандартных отклонений (сигма) мы нашли эффект CP-нарушения", — сказал РИА Новости координатор участия России в эксперименте LHCb, сотрудник Института теоретической и экспериментальной физики (ИТЭФ) Виктор Егорычев.

Ученые в течение многих лет ищут нарушения так называемой CPT-симметрии, то есть зарядовой, пространственной и временной симметрии в процессах, связанных с частицами и античастицами.

Посмотреть вложение 2828333
Распад B-мезонов в детекторе LHCb Большого адронного коллайдера

"Если бы в первый момент Большого взрыва материя и антиматерия были одинаковыми, то произошла бы аннигиляция, и во Вселенной не было бы ничего, кроме фотонов. Но мы существуем, значит, что-то произошло, что сделало возможным существование нашего мира. Это говорит о существовании нарушения, которое позволяет антиматерии распадаться иначе, чем материи", — пояснил ученый. Уязвимость антиматерии позволила возникнуть крошечному избытку частиц материи.

"Это одна частица на десять миллиардов пар частиц-античастиц, которые были изначально созданы и аннигилировали", — добавил он.

Невидимый слон

В 1960-е годы ученые впервые зафиксировали нарушения в распаде нейтральных К-мезонов, а позже в экспериментах с нейтральными и заряженными B-мезонами. Участники эксперимента LHCb проанализировали данные о распаде нейтральных Bs-мезонов и их античастиц, рождающихся в коллайдере и обнаружили, что античастицы живут меньше.

"Это распады частицы и античастицы в одно и тоже состояние происходят по-разному. Мы просто измерили время жизни этих частиц до распада и видим, что оно разное — это и есть CP-нарушение", — пояснил Егорычев.

"За историю человечества это четвертый случай (обнаружения CP-нарушения). Мы в очередной раз подтвердили, что в этой комнате есть черная кошка", — сказал ученый.

Однако физикам еще далеко для того, чтобы выяснить, почему наш мир все-таки существует. По словам Егорычева, уровень расхождения между материей и антиматерией должен быть на несколько порядков сильнее, чтобы объяснить эволюцию Вселенной.

"Нужно найти более сильные механизмы. Где-то в углу стоит большой черный слон, которого мы пока не видим", — заключил ученый.

http://ria.ru/science
 

Inquisitor

Ословед
Представлена методика расчёта образования водяных плёнок

В больших количествах вода склонна заполнять любые сосуды, а вот в тонких плёнках ей не до неровностей: она растекается даже по изогнутой (микроскопически) поверхности, не образуя луж. Если стенки у сосуда неровные, то поверхность плёнки, напротив, стремится (спасибо силам поверхностного натяжения) быть ровной. При этом жидкость принимает то состояние, на которое уходит меньше энергии. И если на образование крохотных капель требуется меньше усилий, чем формирование плёнки, то последняя и не образуется, оставляя лишь легко скатывающиеся капли. Именно это мы наблюдаем, рассматривая росу на своих ботинках после утренней прогулки.

Гораздо хуже ситуация, когда поверхность такова, что для воды энергетически более выгодно образование сплошной плёнки: тогда предметы намокают на порядок быстрее, их поверхность передает электрический ток и так далее. Где пролегает граница между этими состояниями?

Исследователи из Института динамики и самоорганизации Общества Макса Планка (Германия) разработали теорию этого процесса, эффективно объясняющую наблюдаемые явления.

Посмотреть вложение 2828343
На поверхности лотоса супергидрофобный эффект известен давно, а вот искусственным материалам такие способности пока даются лишь ценой множества проб и ошибок (Здесь и ниже фото Jutta Wolf)

Для чего это нужно? Гидрофобные материалы заметно прогрессируют: не так давно впервые продемонстрированы даже супергидрофобные поверхности. Вот только пока такие разработки — это скачка на лошадях через поле с барьерами, притом что и у животного, и у всадника глаза плотно завязаны. Иными словами, теории нет. Практические результаты достигаются за счёт искусственного создания недешёвых материалов с однородной в микроскопическом масштабе поверхностью, содержащей одинаковые инженерно запрограммированные неровности. Расчёт их прост, однако в реальной жизни микроскопически однородные поверхности встречаются редко. У большинства из них размер поверхностных неровностей колеблется от нанометров до микрометров.

Немецкие физики под руководством Стефана Гермингауза (Stephan Herminghaus) утверждают, что, учитывая всего два фактора — контактный угол и давление насыщенного пара, можно получить весьма точное представление о поведении жидкости на поверхности и о моменте образования водной пленки на ней. Для этого нужно использовать усредненные значения высот и впадин на поверхности материалов в микромасштабе. Поскольку поперечные размеры таких неровностей на практике почти не имеют значения, оптимизировать их гидрофобность можно при помощи относительно простых расчётов, «школьной математики». Более того, на идеально гладких поверхностях, таких как у некоторых видов стекла, даже давление насыщенного пара можно не учитывать.

Посмотреть вложение 2828353
Учитывая всего два фактора — контактный угол и давление насыщенного пара, можно получить весьма точное представление о поведении жидкости на поверхности и о моменте образования водной пленки на ней.

Уже в ближайшее время новые теоретические выкладки могут быть использованы для прогнозирования условий образования плёнок, к примеру, на трансформаторных подстанциях, где множество керамических поверхностей по мере износа и воздействия непогоды приобретают как раз такие неровности, которые благоприятствуют образованию водной плёнки. Последняя, увы, токопроводна (в отличие от непроводящей росы) и способна вызвать короткое замыкание. Учёные обещают точно определить момент, когда нужно принимать профилактические меры, а также дать их исчерпывающее описание.

Подготовлено по материалам Института динамики и самоорганизации Общества Макса Планка.

http://physiclib.ru
 

маска

Человек Сверх-я (с)Фрейд.Прогнил
Модератор
Звёздочка моя, солнышко земное
Понимание проблем токамакостроения и плазмоудержания у современных обывателей, к сожалению, находится на весьма убогом уровне. Те светлые времена, когда журнал "Наука и Жизнь" выходил тиражом в 3 миллиона экземпляров, уже позади. Сейчас тираж "Науки и Жизни" скатился до жалких 40 000 экземпляров, а сам журнал представляет собой убогую тень своего славного прошлого.

Поэтому я попробую рассказать вам о инженерных проблемах термоядерной энергетики максимально доступно, но в то же время — с сохранением всего объёма технической информации, необходимого для понимания того, во что и где упёрлись учёные, инженеры и строители в деле создания "рукотворного Солнца" на Земле.

Вначале о понятном — о размерах. Вот сравнение (чисто в рамках геометрии установок!) того пути, который уже был пройден и который ещё предстоит пройти термоядерной энергетике:
Посмотреть вложение 2892583
Блоха в левом нижнем углу рисунка — это первый настоящий токамак Т-3, созданный в СССР и продемонстрировавший миру принципиальную возможность создания электростанции, основанной на магнитном удержании высокотемпературной плазмы для создания термоядерной реакции. Маленькая палочка под трубой большого ITERa, который сейчас строит весь мир — это человек, вот он же в сравнении с токамаком Т-3 на старом архивном фото:
Посмотреть вложение 2892593
Как видите — наши отцы даже и не представляли, насколько трудная и масштабная задача предстоит им в деле покорения термоядерной энергии.
Причём, если кто-либо думает, что путь прогресса от Т-3 до ITERа — это лишь вопрос нахождения молотка побольше и организации таджиков на заливку бетонного основания токамака — то он глубоко ошибается.
ITER гораздо технологичнее самого последнего и самого большого современного токамака JET во столько же раз, во сколько раз и сам JET технологичнее старого, доброго, "лампового" Т-3.

Надо сказать, что даже ITER ещё будет, несмотря на всю свою технологичность, всего лишь "наскоро сделанным на коленке" прототипом. Конечно, не на коленке, конечно не наскоро, но именно — прототипом. Например, охлаждение первой стенки реактора в нём будет вестись с помощью обычной воды, в то время, как в серийной термоядерной станции DEMO, строительство которой начнут сразу же после постройки и успешного пуска ITERа — первая стенка плазменной камеры будет охлаждаться уже жидким гелием.

И вот тут мы подходим к одному интересному моменту, который часто не осознаётся многими людьми, которые слушали о термоядерной энергии только в рамках школьного курса физики.
Поясню, в чём состоит тонкий момент термоядерной реакции, которую сейчас хотят запустить в реакторе ITER.

Как вы помните, напрямую повторить реакции по слиянию ядер протия, которые идут в недрах нашего Солнца или же сложный CNO-цикл, который тоже понемногу превращает "лёгкий" водород в гелий, в земных условиях невозможно. Просто потому, что размеры реактора для таких циклов и реакций необходимы просто безумные — речь идёт о том, что термоядерные реакции на лёгком водороде нуждаются в реакторе размером с наше Солнце.
Посмотреть вложение 2892573
CNO-цикл, который тоже греет наше Солнце, вместе с вездесущим протием.


Вообще же. если мы начнём искать варианты минимальных условий для создания самоподдерживающейся ядерной реакции на лёгких элементах (так, чтобы ничего не строить), то мы упрёмся в такие необычные объекты, как коричневые карлики.
"Коричневый карлик" — это звездоподобный объект, размеры которого будут сравнимы с размерами нашего Юпитера, но масса будет уже в 10-30 раз больше, что уже позволят ненадолго зажечь в своих недрах эрзац-реакцию на лёгких элементах.
http://ic.pics.livejournal.com/crustgroup/21152339/245405/245405_original.jpg
Сравнение Солнца, красного карлика, коричневого карлика, Юпитера и Земли.

Как видите, по размеру небольшой коричневый карлик ненамного больше Юпитера. Основное его отличие — это плотность и масса. Масса коричневого карлика создаёт более сильное гравитационное поле, поле сжимает карлик, плотность и температура внутри него растут и, вуаля — начинается термоядерная реакция.

Если красные карлики — это всё ещё полноценные звёзды (правда и маленькие), то коричневые карлики — это что-то среднее между планетами типа Юпитера и настоящими светилами. Из-за своей наружной температуры около 1200 К (900 °C) коричневые карлики светятся тёмно-вишнёвым светом. Самые яркие и самые массивные из них могут даже разгореться до тёмно-красного свечения, набрав на пике своей "мощности" температуру до 3000 К (около 2700 °C).

Отличны от настоящих звёзд главной последовательности и реакции, которые идут в коричневых карликах.
В нашем Солнце реакции "протий+протий" и CNO-цикл вносят где-то по 60 и 40% в общее энерговыделение нашего светила. Но проблема в том, что реакция "протий+протий" стартует в звёздах где-то от температуры в 4 млн. К, а CNO-цикл — и при того более высоких температурах — при 12 млн. К.
http://ic.pics.livejournal.com/crustgroup/21152339/245874/245874_original.gif
При температурах же, характерных для коричневых карликов, ни реакцию "протий-протий" ни тем более, CNO-цикл — не зажечь. Совершенно же невозможно для коричневого карлика зажечь и реакцию синтеза углерода из ядер гелия-4, которую предстоит пройти и нашему Солнцу где-то через 3,5 млрд. лет, в момент превращения его в красный гигант. Для реакции синтеза гелия в углерод надо поднять температуру внутри звезды "всего лишь" до 100 миллионов градусов Кельвина, чем даже наше Солнце пока, к счастью, похвастаться не может.

Что же жгут в своих недрах коричневые карлики? Ведь их уже нашли больше трёх десятков (в основном, по понятным причинам — у ближайших к нам звёзд), а жечь протий или что-то другое у себя в недрах они не могут.
Для того, чтобы понять, что жгут коричневые карлики, посмотрим на несколько диаграмм. Первая — это энергия связи ядер различных химических элементов в расчёте на один нуклон — нейтрон или протон:
http://ic.pics.livejournal.com/crustgroup/21152339/246141/246141_original.gif
График начинается с ядра дейтерия, нелёгкое образование которого из протия мы рассмотрели в прошлом материале. Сам протий — ядро 1H или одиночный протон. на этом графике не показан по понятной причине — энергия связи одиночного протона по определению равна нулю.

Энергия связи дейтрона уже составляет около 1 МэВ на нуклон. Однако, уже для следующего химического — гелия энергия связи в расчёте на один нуклон резко возрастает до 7,03 МэВ на один нуклон. Такая энергия связи характерна для "магической частицы" всей ядерной физики — ядра гелия-4 или 4He, часто называемого ещё и альфа-частицей (α-частица).
Альфа-частица — это сверхустойчивый ядерный организм. Как я уже сказал, превращаться во что-либо иное она согласна только при температурах более 100 млн. градусов, в недрах достаточно массивных звёзд. Кроме того, альфа-частица — это постоянный спутник многих радиоактивных распадов тяжёлых ядер.
Почему? Это тоже очень легко наблюдать на графике. Энергия связи атома урана, например, составляет всего 7,6 МэВ на один нуклон. Разница между энергией связи нуклонов в уране и в альфа-частице — всего около 0,57 МэВ. Рано или поздно ядро урана не выдерживает ужасов социалистического общежития и скученности 238 нуклонов на ограниченной жилплощади — и выталкивает из себя альфа-частицу. Альфа-частица, со своим "блэкджеком и поэтессами", успешно улетает, ну а 238U превращается в... 234U. В то же самое социалистическое общежитие, но уже — с 234 жителями. Подробности, если что, тут.

Исходя из такой мощной энергии связи альфа-частицы мы уже можем по-настоящему понять график распространённости химических элементов во Вселенной:
http://ic.pics.livejournal.com/crustgroup/21152339/247970/247970_original.jpg
http://ic.pics.livejournal.com/crustgroup/21152339/247007/247007_original.png
Как видите, "магистральное шоссе" синтеза ядер у нас чёткое и однозначное.
Водород горит в гелий, гелий горит в углерод и кислород, кислород и углерод горят в кремний, а кремний горит в железо.
Железо — это термоядерные угли, которые уже не могут гореть сами по себе, поскольку имеют максимально возможную для ядер энергию связи.
Практически все элементы группы железа и всё тяжелее этого химического элемента попадает во внешний мир только при взрывах сверхновых звёзд.
Если это вас утешит — то каждый атом углерода, кислорода или азота в вашем теле — уже как минимум один раз побывал в звезде. ну а вся Земля, в целом — это звёздный пепел. По большей части, конечно.

И в этом звёздном пепле можно всё-таки отыскать немного недогоревших головешек. Именно эти головешки и жгут коричневые карлики и собираются поджечь хитрые учёные.
Это атомы, которые притаились в первой части таблицы, но которые имеют энергию связи меньшую, чем наша магическая альфа-частица.
Вот, поимённо, весь этот список: дейтерий и тритий (это у нас изотопы водорода), литий, бериллий, бор.

Всё.

Всего пять головешек оставила нам природа для того, чтобы поджигать наш земной костёр из лёгких ядер. Причём это именно что "огарки" — по сравнению с лёгким водородом — протием этих элементов и изотопов у нас до обидного мало.
Но людишки бы не были Homo Sapiens, если бы не нашли интересный выход из сложившейся ситуации с недостатком свинца в организме врага лёгких ядер в составе Земли.

Энергия связи ядра протия, как мы помним, равна нулю. При встрече двух протонов должно произойти невероятное событие: один из протонов должен виртуально превратиться в нейтрон (за счёт слабого взаимодействия) и тут же образовать устойчивое ядро дейтерия — дейтрон, энергия связи в котором чуть больше, чем разница в массах протона и нейтрона.
То есть, конечно, окончательное состояние двух протонов в ядре дейтрона более энергетически выгодное, но вот в начале вопрос того, кто будет сверху превратится в нейтрон, отнюдь не столь очевидно.

А что будет, если протону подсунуть под нос уже готовый нейтрон?
http://ic.pics.livejournal.com/crustgroup/21152339/247275/247275_original.jpg
Да, всё будет так, как показали в "Матрице". Любой протон, который окажется достаточно близко с тепловым (то есть — медленно идущим) нейтроном, тут же быстро захватит его под руку и образует супружескую пару устойчивое ядро дейтрона.
Ну а дейтрон, в принципе, может захватить и ещё один нейтрон и образовать ядро трития.
Тут, конечно, аналогии с людьми можно смело заканчивать — поскольку хоть тритий и неустойчивое ядро, но распадается по β-распаду в 3He, тот самый гелий-3, который надо копать на Луне.

В общем, был бы у нас годный источник тепловых нейтронов — а уже задача наработки термоядерного горючего из обычной воды для нас стоять не будет в принципе. Хочешь дейтерий получай, хочешь — тритий, а хочешь — подожди и гелий-3 получишь.

Что же у нас является самым мощным источником тепловых нейтронов, который был создан человечеством? Да он же, любимый, и является. Ядерный реактор на распаде тяжёлых ядер — урана, тория и плутония. На каждое деление — по два-три нейтрона, плюс ещё немножко — от осколков деления.

Значит, на каждый атом урана можно легко получить атом дейтерия. Просто из воды охлаждающей водяной рубашки первого контура. В которой у нас будет "коктейль" из дейтерия. трития и гелия-3. Доставку термоядерного топлива заказывали?

С топливом разобрались? А теперь ответим на прозвучавший в начале статьи вопрос. А зачем охлаждают переднюю стенку камеры токамака? Как же учёные собираются забрать тепло от плазменного шнура в реакторе ITER?

А никак. Не будут снимать тепло прямо со шнура — не для этого с таким трудом и с такими мучениями грели плазму. Не для тебе ця квітка розцвіла.

Энергию будут снимать с нейтронов. Которые в изобилии будет давать термоядерная реакция синтеза дейтерия и трития в гелий, которую и хотят запустить в термоядерном реакторе. Вот она:
http://ic.pics.livejournal.com/crustgroup/21152339/247448/247448_original.jpg
Ещё раз, что важно. Энергия при реакции синтеза не выделяется просто так. Часть энергии остаётся в плазме в виде заряженной частицы гелия-4, а часть энергии неизбежно покидает плазму в виде быстрого нейтрона. Нейтрон — частица незаряженная, девушка вольная и улетает со своим "приданным" куда импульс велит.
А приданного — почти что 80% от всего выхода термоядерной реакции. Только 3,5 МэВ энергии от реакции синтеза остаётся в плазме, а 14,1 МэВ улетает куда подальше в виде высокоэнергетического нейтрона, которому это ваше магнитное поле — что слону дробина.

14,1 МэВ — это много или мало?
Это не просто много — это супермного. Такими высокоэнергетическими частицами можно делать всё, что угодно. Например, дробить неделимый торий, который слабенькими нейтронами распада делиться не хочет в принципе. Или — получать из урана плутоний. Или — делить упрямый 238U, который, как и торий, делится нейтронами от распада 235U очень неохотно.
Ну или, опять-таки, окружить токамак за первой, тонкой и охлаждаемой стенкой вакуумной камеры с плазмой, которая для нейтронов всё равно, что бумага, снова-таки водяной рубашкой.

Из протиевой воды, которой у нас — целые океаны по всей Земле. И снова, за счёт нейтронов синтеза, нарабатывать из протия дейтерий, тритий и гелий-3.
Короче, если кто смотрел "Обливион" с Томом Крузом, то мегакипятильники, которые "воровали" с Земли дейтерий и которые Круз смело и героически охранял — это бред:
http://ic.pics.livejournal.com/crustgroup/21152339/247790/247790_900.jpg
Скрипач Кипятильник не нужен.
Если у тебя есть термоядерный реактор на реакции D+T, то ты наработаешь себе и немножко трития и "трошечки, тiльки для себе" дейтерия на будущее. И плутония. И тория. И урана. Да и вообще — всю таблицу Менделеева.

Философский камень заказывали?
Да, я тут нашёл... В головешках от термоядерного пожара последней сверхновой.

Источник


Источник: forum.polismi.org.
-но ведь кто-то уже до нас зажег реакцию на искуственом Солнце?
Чье Солнце?

Об энергетике и транспорте будущего 11.02.2013
смешной анекдот у дедушки
 

    Quiz

    очки: 3.751
    ..Если это вас утешит — то каждый атом углерода, кислорода или азота в вашем теле — уже как минимум один раз побывал в звезде.. Круто!!! Я - звезда. :D

Inquisitor

Ословед
Суперсимметрия в свете данных LHC: что делать дальше?

Посмотреть вложение 2945888
Рис. 1. Пример процесса рождения и каскадного распада суперсимметричных частиц в столкновении протонов. К сожалению, несмотря на многочисленные поиски следов таких процессов на Большом адронном коллайдере, ничего четко указывающего на суперсимметрию пока не найдено. Источник изображения

Результаты первых трех лет работы Большого адронного коллайдера не продемонстрировали никаких признаков существования суперсимметрии, разочаровав тем самым многих физиков. Насколько критичны эти данные для самой идеи суперсимметрии и для различных ее моделей? Как теперь физикам оптимизировать поиск суперсимметрии в будущих данных LHC?

Суперсимметрия — одна из самых ярких и плодотворных идей в теоретической физике высоких энергий. Многие физики надеются, что именно с ней будет связан тот глубинный слой реальности, который лежит под современной картиной микромира — Стандартной моделью. Надежды эти держатся совсем не на пустых словах: в рамках многих суперсимметричных моделей очень естественно разрешаются некоторые трудности и открытые вопросы Стандартной модели. Неудивительно, что поиск суперсимметрии стал одной из ключевых и трудоемких научных задач Большого адронного коллайдера.

Первоначальные ожидания от результатов LHC были очень радужными; всерьез рассматривалось развитие событий, когда фейерверк новых эффектов начнется с первых же недель работы коллайдера на расчетной энергии. Реальность, однако, оказалась отрезвляющей: после трех лет работы LHC никаких признаков суперсимметрии не видно. Можно даже сказать прямо: однозначно закрыты те простые варианты суперсимметричных моделей с легкими суперчастицами, на которые еще десяток лет назад ориентировались многие исследователи суперсимметрии.

Налицо кризис суперсимметричных моделей. Насколько разрушительны отрицательные данные LHC для суперсимметрии? Какие модели закрыты, а какие нет? Можно ли совместить суперсимметричные модели с нынешними данными, и если да, то чем при этом придется пожертвовать? Наконец, требуется ли оптимизировать задачу поиска суперсимметрии на следующий сеанс работы коллайдера? Обсуждения этих вопросов стали особенно бурными в последний год, по мере того как ударными темпами росла статистика данных на LHC. Здесь мы попробуем обрисовать общую ситуацию, сложившуюся на сегодняшний день.
Бесчисленное множество моделей

Главная проблема с поиском суперсимметрии — головокружительное количество вариантов суперсимметричных моделей, а значит, и огромный набор возможностей того, как именно они будут проявляться в эксперименте. Пока суперсимметрия остается точной симметрией, суперсимметричный мир элегантен и относительно прост. Если дело так и обстоит, то только при исключительно высоких энергиях. Но в нашем низкоэнергетическом мире — даже в момент протонных столкновений на LHC! — эта изначальная суперсимметрия нарушена. В результате теория предсказывает большое число суперчастиц (частиц-суперпартнеров обычных частиц), массы и взаимодействие которых могут быть почти произвольными. Теория не говорит, какие из частиц будут легче, какие тяжелее, сколько времени какие из них будут жить, какие у них будут наиболее вероятные процессы рождения и распада.

Подчеркнем, что даже перечисление всех сколько-нибудь различающихся вариантов суперсимметричных теорий является совершенно неподъемной задачей. Например, в самой простой реализации идеи суперсимметрии — минимальном суперсимметричном расширении Стандартной модели (MSSM) — имеется 105 свободных параметров (см.: hep-ph/9709450). Даже если попытаться «просканировать» весь набор их возможных комбинаций в самом грубом приближении (например, предположив, что каждый параметр может принимать либо нулевое, либо какое-то одно ненулевое значение), мы получим 2105 комбинаций. Ясно, что ни о каком перечислении всех моделей не может быть и речи.

К счастью, подавляющая часть всех таких вариантов сильно расходится с опытными данными. Но задача выбрать все те, которые согласуются, не проще. Выходом будет попытка сформулировать и тщательно проанализировать нескольких конкретных и очень ограниченных вариантов суперсимметричных теорий. Эти модели должны, с одной стороны, удерживать основные черты суперсимметрии и при этом не входить в явное противоречие с опытом, а с другой стороны, должны предоставить свободу лишь очень малому количеству параметров. Только в этом случае появляется разумный шанс просканировать всё пространство параметров, разбить его на области, различающиеся по физическим последствиям, провести подробные вычисления и сделать предсказания для эксперимента.

Несколько таких вариантов стали популярны уже давно; другие вошли в моду только в последние годы:
CMSSM (ограниченная MSSM) и mSUGRA (минимальная супергравитация) — наиболее популярные и самые простые варианты MSSM. Они характеризуются предположением об исключительной универсальности всех скалярных частиц и всех фермионов частиц до момента нарушения суперсимметрии и содержат всего 5 свободных параметров в довесок к параметрам Стандартной модели. Именно в рамках этих моделей делалось множество предсказаний для LHC, на основании которых затем разрабатывалась стратегия экспериментального поиска суперсимметрии.
NUHM (модель с неуниверсальными хиггсами) — чуть более свободная разновидность MSSM, в которой снято предположение о жесткой универсальности между хиггсовскими полями; 6 свободных параметров.
pMSSM (феноменологическая MSSM) — гораздо более свободная модель без универсальности свойств суперчастиц, сформулированная в 2009 году (arXiv:0812.0980); 19 свободных параметров.
NMSSM (next-to-MSSM) — если все предыдущие модели представляли собой разновидности MSSM, то этот класс выходит за ее пределы и позволяет избавиться от некоторых ограничений MSSM. Она обладает более сложным набором хиггсовских полей и в простейшем варианте содержит 7 свободных параметров.


Подчеркнем, что вариация свободных параметры в каждой модели не просто слегка меняет предсказания для рождения и распада суперчастиц. Она может полностью перекроить всю картину процессов. Поэтому в рамках каждой модели всё равно остается довольно большой (или в случае pMSSM — очень большой) набор возможностей, который надо изучать индивидуально.
Суть экспериментального поиска

Общая методика поиска была обрисована на страничке Поиск суперсимметрии на LHC. Прежде чем делать выводы о том, какие последствия для теории повлекли за собой данные первых трех лет LHC, следует четко осознать общую идею, которая руководила физиками при разработке стратегии поиска.
Детальные теоретические предсказания, а тем более тщательное моделирование реальных процессов, очень ресурсоемки. Проработать их в мельчайших деталях более чем для нескольких десятков существенно разных конкретных моделей практически невозможно. Поэтому упор следует делать лишь на очень небольшое количество конкретных моделей с конкретными значениями параметров. Такие модели называют «опорными» (benchmark models).
С другой стороны, физики отдают себе полный отчет в том, что суперсимметрия — даже если она реализуется в природе — вовсе не обязана выражаться простой моделью. Никто не гарантирует, что она вообще будет соответствовать MSSM!
Надежда физиков при запуске LHC состояла в том, что тем не менее одно с другим сможет состыковаться: какова бы ни была в реальности суперсимметрия, ее проявления в каком-то виде заметит и стратегия, предназначенная для простых опорных моделей. Это, подчеркнем, именно надежда, а не доказанное утверждение.
Обзор экспериментальных данных

Обратимся теперь к текущей ситуации в свете данных LHC. К настоящему времени на Большом адронном коллайдере получено три типа данных, ограничивающих суперсимметрию:
прямые поиски — то есть попытки родить суперчастицы в столкновениях и заметить их распады,
свойства хиггсовского бозона — если открытый в прошлом году бозон Хиггса относится к суперсимметрии, его измеренные свойства тоже накладывают ограничения на модели,
наблюдение сверхредких распадов мезонов, и прежде всего, наблюдение коллаборацией LHCb распада Bs → μ+μ–.

Прямые поиски суперчастиц до сих пор дают отрицательный результат во всех проверенных типах процессов (см. сводные графики на страничке Поиск суперсимметрии: результаты). И это несмотря на то, что LHC смог уже прощупать диапазон масс суперчастиц в несколько раз больший, чем все предыдущие эксперименты! На рис. 2 показаны области параметров в моделях CMSSM и mSUGRA, закрытые в предыдущих экспериментах (слева) и на LHC к настоящему моменту (справа). Обратите внимание на то, как разительно отличаются масштабы по осям!

Посмотреть вложение 2945891
Рис. 2. Результаты прямого поиска суперчастиц в более ранних экспериментах на Тэватроне и на LEP (слева) и на LHC (справа). Закрашенные области слева и области под цветными кривыми показывают диапазоны параметров модели, закрытые в эксперименте. Прерывистые кривые показывают области параметров, которые отвечают суперчастицам определенной массы. Источник изображения

Наибольшие ограничения по массе были получены для скварков и глюино (суперпартнеров кварков и глюонов); нижние пределы на их массы уже превышают 1 ТэВ. Это и неудивительно, поскольку они участвуют в сильном взаимодействии, и значит, им проще рождаться в столкновении протонов. При этом скварки здесь относятся только к первым двум поколениям (то есть это суперпартнеры легких кварков). Ограничения на топ-скварки — или, как чаще говорят, «стопы» — меньше, в районе 500–600 ГэВ, просто из-за того, что труднее анализировать их распады.

Ограничения на массы суперпартнеров лептонов (слептонов) и нейтральных частиц (нейтралино) заметно хуже и редко превышают 300 ГэВ. При этом легчайшая из нейтралино может даже быть совсем легкой. Будучи нейтральной и стабильной частицей, она просто улетает и не детектируется. Она является популярным кандидатом в частицы темной материи; ограничения на ее свойства могут следовать из космологии, а не из коллайдерных поисков.

Свойства хиггсовского бозона, измеренные на LHC (см. сводку данных на страничке Изучение бозона Хиггса), согласуются далеко не со всякими суперсимметричными вариантами. Уже измеренное значение массы бозона (125–126 ГэВ) начинает «напрягать». Дело в том, что в рамках MSSM хиггсовский бозон не может быть тяжелее примерно 128 ГэВ; идеальный диапазон — 115–120 ГэВ. То, что бозон оказался опасно близко к грани, требует от теоретиков некоторой не совсем комфортной подкрутки параметров, и для многих такая необходимость кажется разочаровывающе неестественной. За пределами MSSM таких трудностей можно избежать.

Сверхредкие распады мезонов полезны тем, что эти процессы в силу разных причин практически не хотят происходить за счет обычных взаимодействий известных частиц. Поэтому если тот же распад будет вызывать и суперсимметрия, то она может сильно изменить вероятность распада относительно предсказаний Стандартной модели. Распад Bs → μ+μ–, о котором было объявлено полгода назад, обладает исключительной прозорливостью к суперсимметрии. В некоторых вариантах суперсимметричных моделей она даже превышает чувствительность прямых поисков.

Тут надо сказать, что когда результат LHCb был обнародован, многие поспешили заявить, что он противоречит суперсимметрии. Вовсе нет. Отличие от стандартной вероятности распада аж в несколько раз — а именно это пока закрыто экспериментом — возникает лишь в небольшой части всех изученных вариантов. В других моделях эти отличия могут составлять, скажем, 10% или еще меньше, и такой результат пока что вполне согласуется с измерениями.
Последствия данных LHC для суперсимметричных моделей
Закрывает ли LHC суперсимметрию?

В новостях можно иногда встретить утверждение, что отрицательные данные LHC ставят крест на идее суперсимметрии. Из предыдущего обсуждения уже ясно, что это лихое заявление неверно. Суперсимметрия может реализоваться в нашем мире самыми разными способами, и никто не утверждает, что все они одинаково легко видны или вообще могут проявляться на LHC. Отсутствие сигналов суперчастиц на LHC ни в коем случае не отменяет предположение, что суперсимметрия в каком-то виде является частью реальности.

Закрывается ли тогда минимальная суперсимметричная модель (MSSM)? Тоже нет. Конечно, область параметров, согласующихся со всеми данными, сильно сократилась по сравнению с ситуацией до LHC, но она по-прежнему остается большой и не до конца исследованной. Та же модель pMSSM, не говоря уже о более свободных вариантах MSSM, легко предоставляет примеры, согласующиеся со всеми экспериментальными данными.

Каков тогда вердикт в случае очень ограниченных моделей, например CMSSM или NUHM? Год назад было впечатление, что такие модели действительно вот-вот закроются (см.: arXiv:1204.4199). Однако в последние месяцы появились работы, в которых тщательный анализ обнаружил примеры, всё еще согласующиеся со всеми данными (см.: arXiv:1212.4887, arXiv:1302.5956, arXiv:1303.0721). В статье arXiv:1305.2914 был проведен наиболее подробный анализ, в котором были найдены и описаны целые «континенты CMSSM» (подходящие области параметров), недостаточно изученные до сих пор.

Возможно, этот результат временный, и данные следующего этапа LHC вкупе с неколлайдерными экспериментами (например, детекторами частиц темной материи) его закроют. Однако произойдет это только через несколько лет. До тех пор считать, что даже тот же CMSSM совсем закрыт, нельзя.
Что теперь стоит делать теоретикам?

Итак, модели с легкими суперчастицами и, как следствие, наиболее яркими эффектами не оправдались. Но с другой стороны, сами модели еще вовсе не закрыты. Следующий сеанс работы LHC сможет изучить их намного лучше — как из-за повышенной энергии, так и просто благодаря десятикратно возросшей статистики. Что теперь следует предпринять теоретикам, которые хотят оптимизировать поиски, улучшить прозорливость LHC, а также сделать интерпретацию данных более надежной?

Одно направление уже было упомянуто выше. Пространство параметров ограниченных моделей (CMSSM, NUHM) следует изучить вдоль и поперек. Это позволит избежать «открытий», когда поначалу кажется, что экспериментальные данные «хоронят» модель, но при более внимательном анализе она оказывается пока жизнеспособной.

Другое направление — разработка опорных моделей в рамках pMSSM и других более свободных реализаций суперсимметрии. Пространство параметров здесь будет огромным, поэтому надо попытаться найти методику, которая, с одной стороны, не захлебывалась бы избытком вариантов, а с другой стороны, не попустила бы важные скрытые «континенты» на карте этой модели. Примером такого исследования является статья arXiv:1305.2419. В качестве иллюстрации на рис. 3 показаны массы суперчастиц в одной из моделей, которая предлагается в качестве опорной. Заметьте, что большинство частиц тут заметно тяжелее 1 ТэВ.

Посмотреть вложение 2945894
Рис. 3. Массы суперчастиц в одной из опорных моделей, предложенных в статье arXiv:1305.2419

Если отвлечься от технических вопросов, то очень злободневным предметом для обсуждения является понятие естественности теории — «естественной» в плане объяснения численных величин. Теория считается естественной, если она не требует какого-то слишком аккуратно и беспричинно подстроенного совпадения численных параметров. Скажем, если измеренное на опыте число «1» получается в рамках теории в виде компенсации двух чисел «3» и «–2», имеющих разное происхождение, то это нормально. Но если одно из чисел оказывается равно миллиону, а второе мы не знаем, то мы вынуждены предположить, что второе число равно «–999999». Всё бы ничего, но только получается, что оно по модулю аномально точно подстроено к первому. Если внутри теории для этого нет причин, то такая теория воспринимается как противоестественная.

Главным камнем преткновения для суперсимметричных теорий (ровно как и для любых других!) является объяснение «невыносимой легкости» хиггсовского бозона. Собственно, физики изначально надеялись на модели с легкими суперчастицами, потому что они объясняли массу хиггсовского бозона очень естественным образом. Нынешние ограничения LHC эту идиллию нарушают. Хоть суперсимметричные модели и формально не закрыты, в них приходится предполагать компенсацию на уровне 1% и даже точнее.

Насколько серьезной проблемой является потеря естественности? Неизвестно, ведь это очень субъективный критерий! Может быть, компенсация на уровне 0,1% должна считаться приемлемой, а может быть, это вообще не является объективно научным принципом. Недавние рассуждения на эту тему вообще и в применении к суперсимметрии можно найти в статьях arXiv:1302.6587, arXiv:1305.3434, arXiv:1306.2926.
Итоги

Результаты первых трех лет работы LHC ограничивают суперсимметричные модели намного сильнее, чем все эксперименты до сих пор. Они, однако, ни в коем случае не закрывают суперсимметрию. Более того, сейчас выясняется, что даже самые ограниченные ее варианты при каких-то параметрах всё еще жизнеспособны; более свободные модели можно согласовать с данными без особых проблем. Возникает, правда, трудность с естественностью теории, но как ее воспринимать, пока толком не понятно.

Вторая фаза работы Большого адронного коллайдера станет новым существенным этапом в поиске суперсимметрии. Если LHC так и не найдет никаких ее проявлений, это уже будет иметь более серьезные последствия для ограниченных моделей, но формально не закроет саму идею. Вопрос о естественности теории станет еще острее, и к каким выводам придут тогда теоретики, можно лишь предполагать.

См. также:
1) Физика элементарных частиц в преддверии запуска Большого адронного коллайдера — научно-популярная лекция В. А. Рубакова; см. раздел про суперсимметрию.
2) Что такое суперсимметрия? — умеренно популярное изложение основ суперсимметрии.
3) S. P. Martin. A Supersymmetry Primer // hep-ph/9611409 — вводные лекции по суперсимметрии.
4) Supersymmetry, part I: Theory и Supersymmetry, part II: Experiment — актуальный обзор текущего состояния теории и экспериментальных поисков на сайте Particle Data Group.
5) J. L. Feng, J.-F. Grivaz, J. Nachtman. Searches for Supersymmetry at High-Energy Colliders // Rev. Mod. Phys. 82, 699–727 (2010) [arXiv:0903.0046] — обзор экспериментальных поисков к моменту запуска LHC.

Игорь Иванов

http://elementy.ru/news/432038

 

Inquisitor

Ословед
Закрученный свет шагнул на два порядка вверх по шкале энергий

Посмотреть вложение 2945897

Рис. 1. Волновой фронт для плосковолнового (в центре) и для закрученного света (слева и справа). Если раньше закрученный свет ограничивался лишь оптическим диапазоном, то сейчас его удалось получить и в рентгене. Изображение из обсуждаемой статьи в Phys. Rev. Lett.

Закрученный свет — необычная световая волна, несущая вращательный момент, — используется в физике уже давно, но до сих пор он не выходил за пределы оптического диапазона. Сейчас немецким физикам удалось получить яркий пучок закрученного рентгена с энергией фотонов 99 эВ. Это открывает новые возможности как в фундаментальной физике, так и для многочисленных приложений.

Закрученный свет: первое знакомство

Закрученный свет — это разновидность световой волны, у которой волновой фронт не плоский, а спиральный, словно винт с резьбой (рис. 1). Из-за такого нестандартного профиля пучок закрученного света не просто летит вперед, но еще и словно крутится вокруг направления своего движения. Такой световой луч несет не только энергию, импульс и поляризацию, но еще и определенное вращение, определенный орбитальный угловой момент.

Сразу стоит сделать важную оговорку: несмотря на то, что картинка на рис. 1 напоминает стандартную иллюстрацию для циркулярной поляризации, это две разные и независимые характеристики световой волны. Поляризация связана с направлением электрического поля в плоской волне, а закрученность характеризует волновой профиль неплоской волны неважно с какой поляризацией. Подробное объяснение см. в нашей статье Закрученный свет и закрученные электроны: обзор новых результатов.

То, что фотоны могут нести не только поляризацию, но и орбитальный угловой момент, было понятно уже давно. Но реальные узконаправленные световые пучки с винтовым волновым фронтом научились получать лишь в 1995 году. Благодаря огромному интересу технология получения, детектирования и управления закрученным светом быстро усовершенствовалась и буквально за одно десятилетие превратилась в рутинный метод исследований в самых разных разделах физики.

Здесь и тонкие вопросы оптики, как классической, так и квантовой, и разнообразные вопросы из квантовой теории информации. Квантовые состояния двух фотонов можно запутывать не только по поляризации (которая дает всего лишь двумерное пространство для запутывания, то есть произвольные комбинации правой и левой циркулярной поляризации), но и по орбитальному угловому моменту. А поскольку он может быть любым целым числом, то и пространство для манипуляций тут намного более емкое, формально оно сколь-угодно-мерное. Сейчас уже умеют запутывать состояния фотонов с орбитальным угловым моментом не ±1, не ±2, а вплоть до ± несколько сотен. Это позволяет ставить квантовомеханические эксперименты с невиданной ранее свободой действий, резко повышает информационную емкость единичных фотонов, расширяет возможности квантовой криптографии. Наконец, закрученный свет используется как новый метод воздействия на отдельные атомы, на бозе-эйнштейновский конденсат, как новый инструмент исследования в микроскопии, в микромеханике, в оптоэлектронных микроустройствах и даже в астрофизике. Многочисленные примеры можно найти в вышедшей два года назад книге (J. P. Torres, R. Torner, 2011. Twisted Photons).
Как поднять энергию?

Это всё замечательно, но до сих пор возможности экспериментаторов не уходили дальше оптического диапазона (энергия фотонов порядка 1 электронвольта, эВ). А ведь для целого ряда задач очень хочется получить закрученные фотоны намного большей энергии. Скажем, если бы был доступен закрученный рентген (энергии фотонов в сотни эВ и кэВ), то новыми красками заиграл бы рентгеноструктурный анализ вещества и в особенности сложных (в частности, биологически важных) молекул с винтовой закруткой. В атомной физике появился бы способ возбуждать электронные переходы с резким изменением орбитального углового момента — то, что сегодня делается с большим трудом. Если же удастся получить закрученные фотоны с энергиями порядка МэВ и выше, то откроется новый способ возбуждать вращательные состояния ядер, а может быть, даже и элементарных частиц. В общем, перспективы заманчивые — надо лишь сделать такие фотоны реальностью.

К сожалению, стандартные методики закручивания света тут уже не работают. Дело в том, что обычно закрученные фотоны получают так: сначала порождают обычные световые плоские волны с широким и ровным волновым фронтом, а затем пропускают их сквозь специальные дифракционные устройства или иные «маски», вырезающие из световой волны профиль нужной формы (подробности см. в нашей обзорной статье). Но для энергий в сотни эВ и выше трудно найти источники фотонов с хорошей когерентностью и создать подходящие «оптические маски». Поэтому ученые стали склоняться к мысли, что надо кардинально менять саму методику получения закрученных фотонов большой энергии.

Посмотреть вложение 2945900
Рис. 2. Схема возникновения синхротронного излучения в ондуляторе. Изображение с сайта photon-science.desy.de

В 2007 году в статье Phys. Rev. Lett. 100, 124801 было высказано предложение генерировать яркий пучок закрученного рентгена с помощью ондулятора. Идея заключается вот в чём. Берем обычный ускоритель электронов до умеренно больших энергий (скажем, несколько ГэВ) и прогоняем электронный пучок через прямой участок, на котором в ряд установлено много магнитов чередующейся полярности (рис. 2). Пролетая сквозь такое поле, электронный сгусток будет вилять из стороны в сторону, и, виляя, он будет излучать синхротронное излучение. Это излучение можно сделать довольно мощным, узконаправленным, монохроматичным и, к тому же, с настраиваемой частотой, которая зависит от энергии электронов. Подробнее о принципе работы и применении ондулятора см. в нашей новости Физики создали настольный рентгеновский микроскоп. На этим принципе, в частности, работает лазер на свободных электронах.

Ондуляторы бывают двух основных типов: плоский и спиральный. В первом электронный сгусток колеблется в одной плоскости (как на рис. 2), во втором его траектория представляет собой спираль. Это влияет на свойства излучения: в плоском оно линейно поляризовано, а в спиральном — циркулярно. Но это еще не всё. По расчетам статьи 2007 года получается, что это будет влиять и на закрученность излученных фотонов: излучение с определенным орбитальным угловым моментом будет возникать именно в спиральном ондуляторе.

Правда, тут есть маленькая тонкость, заметно усложняющее дело. Для многих периодических процессов вызываемый ими эффект, если его разложить по колебаниям с определенной частотой, может содержать не только основную (так называемую фундаментальную) частоту, но и кратные частоты: удвоенную, утроенную и т. д. То же справедливо и для ондуляторного излучения: в основном излучение идет на фундаментальной частоте, но есть также излучение и в кратные частоты, правда оно намного слабее. Как показали расчеты, для закручивания фотонов нужна не фундаментальная, а более высокая частота; этот же вывод был затем подтвержден и в статье arXiv:1109.1603.
Закрученный рентген получен

Предложенная идея оказалась не столь простой для реализации. Дело тут не только в том, что излучение ондулятора на кратных частотах слабое и потому обычно не изучается. Оказывается, доказать наличие орбитального углового момента в неплоской волне не так-то и просто. Если таким закрученным светом посветить на экран, то он оставит след в виде аккуратного симметричного колечка. Но такие же колечки яркости можно создать и без закрутки (читатели «Элементов» уже встречались с таким примером в задаче Скорость радиально-поляризованного света). Поэтому для доказательства, что полученные фотоны действительно закручены, желательно использовать какой-то более четкий способ.

Такой способ был придуман и реализован в вышедшей на днях статье Phys. Rev. Lett. 111, 034801 (2013). Благодаря ему физики смогли воочию убедиться, что полученные ими рентгеновские фотоны с энергией 99 эВ действительно несут орбитальный угловой момент.

Посмотреть вложение 2945903
Рис. 3. Схема эксперимента по наблюдению рентгеновского ондуляторного излучения с орбитальным угловым моментом. Изображение из обсуждаемой статьи в Phys. Rev. Lett.

На рис. 3 приведена схема эксперимента, выполненного на немецком электронном накопительном кольце BESSY II. Физики установили на нем особый, двойной ондулятор. Первая половина его заставляла электронный сгусток двигаться по спирали, а затем переводила траекторию в плоскость. Излучение шло на обоих участках, и оно, разумеется, было одинаковой частоты и накладывалось друг на друга. В результате то, что попадало на экран, представляло собой не чистый закрученный рентген, а интерференцию закрученного и незакрученного света, который затем регистрировался специальным монохроматором и детектором.

И вот такая интерференция, как оказалось, приводит к сложному узору, который четко показывает наличие и направление закрученности излучения, порождаемого на первом этапе. На рис. 4 слева показано то, как выглядело распределение интенсивности в реальности, а справа — результаты численного моделирования. Отлично видна спиральная структура излучения, которая хорошо совпадает с результатами моделирования. При изменении направления спиральной траектории в первой половине ондулятора менялось и направление спирали в этом распределении. Подчеркнем, что этот результат относится к излучению на удвоенной частоте; на основной частоте никакой закрутки не было. Ее также не было, разумеется, и при отключении любой из половин ондулятора.

Посмотреть вложение 2945906
Рис. 4. Экспериментально измеренное (слева) и полученное моделированием (справа) распределение интенсивности излучения в двойном ондуляторе. Изображение из обсуждаемой статьи в Phys. Rev. Lett.

Таким образом, предложенный 6 лет назад метод получения закрученного рентгена был успешно реализован, и физика закрученного света шагнула по шкале электромагнитных волн сразу на два порядка вверх. При желании эксперименты с закрученным рентгеном можно ставить уже сейчас. А параллельно с этим можно попытаться поднять энергию фотонов еще выше: для этого достаточно установить такой же двойной ондулятор в накопительное кольцо с большей энергией электронов. Поскольку в современных электронных коллайдерах уже достижимы энергии порядка 100 ГэВ, а энергия излученных фотонов в ондуляторе квадратично растет с энергией электронов, то и МэВные закрученные фотоны уже кажутся вполне достижимыми.

Источник: J. Bahrdt et al. First Observation of Photons Carrying Orbital Angular Momentum in Undulator Radiation // Phys. Rev. Lett. 111, 034801 (2013).

http://elementy.ru/news/432052
 

Inquisitor

Ословед
Атому Бора сто лет

Посмотреть вложение 2945912
Нильс Бор с женой Маргарет, 30-е годы. Фото из статьи Джона Хейлброна “The path to the quantum atom” в последнем выпуске журнала Nature, посвященном юбилею.

Жил-был на свете электрон,
Он в атом Бора был включен,
Орбита его вкруг ядра пролегла —
Такие-то, братцы, там были дела.
(Из студенческого фольклора)

Сто лет назад увидела свет знаменитая статья датского физика Нильса Бора «О строении атомов и молекул». C этой работы началась история квантовой механики.

В июле 1913 года 27-летний приват-доцент Копенгагенского университета Нильс Хенрик Давид Бор опубликовал статью On the Constitution of Atoms and Molecules, ставшую одним из крупнейших достижений теоретической физики (Philosophical Magazine. 1913. V. 26. P. 1–25; cм. также в русском переводе: «О строении атомов и молекул»). Эта работа придала физический смысл модели атома с массивным заряженным ядром (см. Rutherford model), которую двумя годами ранее предложил Эрнест Резерфорд. Там также было впервые рассмотрено движение материальных частиц (в данном случае, электронов) на основе теории квантов (см. History of quantum mechanics), которую до того использовали лишь для описания электромагнитных излучений и вычисления теплоемкости твердых тел. Подобные движения со времен Ньютона изучала самостоятельная наука — классическая механика. Бор открыл путь к созданию принципиально новой механики, которую позднее стали называть квантовой.
Контекст эпохи

Сто лет назад физика стояла перед необходимостью осмыслить множество экспериментальных данных, которые не поддавались разумной интерпретации в рамках ньютоновской механики и максвелловской электродинамики. Требовались принципиально новые идеи, а они, увы, запаздывали.

В краткосрочной ретроспективе всё началось с двух почти одновременных открытий — радиоактивности (см. Radioactive decay, 1896 год) и электрона (1897). Классическая физика не могла объяснить, какое место занимает электрон в структуре материи, почему заполненное электронами вещество сохраняет стабильность и по какой причине уран и еще некоторые элементы непрерывно испускают эманации трех видов (без особых хитростей поименованные тремя первыми буквами греческого алфавита). В 1903 году Резерфорд и Фредерик Содди (Frederick Soddy) осознали, что эти излучения требуют особого вида энергии, которую они назвали атомной (см.: E. Rutherford and F. Soddy. Radioactive Change // Philosophical Magazine. 1903. V. 5. P. 576–591). Однако природа этой энергии оставалась загадочной.

В 1906 году Резерфорд, который тогда работал в Канаде, обнаружил, что в результате столкновения с веществом альфа-частицы (см. Alpha particle) подчас изменяют траекторию полета. Три года спустя, перебравшись из Монреаля в Манчестер, он поручил своим помощникам Иоганнесу Гейгеру (Hans Geiger) и Эрнесту Марсдену (Ernest Marsden) изучить этот эффект, наблюдая отражение альфа-излучения от поверхности тончайшей золотой фольги (толщиной 0,4 микрометра). Они установили, что альфа-частицы, против всех ожиданий, могут отражаться на большие углы, в редких случаях даже превышающие 90 градусов (см.: H. Geiger and E. Marsden. On a Diffuse Reflection of the α-Particles // Proceedings of the Royal Society A. 1909. V. 82. P. 495–500). После длительных раздумий Резерфорд интерпретировал эти результаты как свидетельство того, что почти вся масса атома сосредоточена в положительно заряженном центральном теле очень небольшого объема. 7 марта 1911 года он доложил свои выводы на заседании Манчестерского литературно-философского общества и уже в мае представил их в отдельной статье (см.: E. Rutherford. The Scattering of α and β Particles by Matter and the Structure of the Atom // Philosophical Magazine. 1911. V. 21. P. 669–688). В этой же работе он вывел формулу для дифференциального сечения рассеяния нерелятивистских заряженных частиц, движущихся в кулоновском поле неподвижного заряда, которая теперь носит его имя.

Посмотреть вложение 2945915
Эксперимент Гейгера и Марсдена (см. Geiger–Marsden experiment). Траектории альфа-частиц, которые по большей части очень незначительно меняют направление движения, но иногда рассеиваются на большие углы. Справа: принципиальная схема эксперимента. Изображение с сайта www.rsc.org

Резерфорд вполне реалистически оценил размер носителей атомной массы — примерно одна стотысячная поперечника самого атома. Сначала он не предложил для этих тел специального имени, но позднее назвал их атомными ядрами (см.: E. Rutherford. Radioactive substances and their radiations // Cambridge University Press, 1913, p. 184). При этом он вовсе не утверждал, что электроны описывают замкнутые орбиты вокруг ядра наподобие планет, обращающихся вокруг Солнца. Резерфорд прекрасно понимал, что, в соответствии с классической электродинамикой, вращающиеся электроны должны были бы непрерывно излучать электромагнитные волны и по спирали падать на ядро. В популярной литературе (впрочем, и не только в ней) модель Резерфорда иногда называют планетарной, что исторически неверно — таковой она сделалась только в интерпретации Бора.

Посмотреть вложение 2945918
A — классический электрон должен терять энергию на излучение и падать по спирали на центр. B — круговые стационарные электронные орбиты по Бору. C — перескоки электронов между стационарными орбитами порождают различные спектральные серии водородоподобного атома. Рис. с сайта abyss.uoregon.edu

Резерфордовская модель атома стала первым шагом к пониманию природы радиоактивности. Сто лет назад уже было известно, что альфа-частицы — это ядра гелия, бета-частицы (см. также Beta particle) — быстрые электроны, а гамма-лучи (см. также Gamma ray) — высокоэнергетичные кванты электромагнитного излучения. Сейчас мы знаем, что все они рождаются в ходе ядерных превращений, но тогда наука до этого еще не дошла. Сам Резерфорд уже и тогда полагал, что альфа-лучи вылетают из атомных ядер, поскольку другого способа появления этих массивных частиц попросту не видел, однако источником бета- и гамма-лучей считал не ядро, а его электронное окружение. Следующий шаг к пониманию природы радиоактивности сделал Бор — всё в том же 1913 году.
Загадки спектральных формул

У классической физики также имелись нерешенные проблемы с более почтенной историей, нежели радиоактивность и стабильность атома. К ним, в общем-то, привыкли и не считали чем-то катастрофическим, но они от этого не исчезали. Одна из них возникла в ходе развития спектроскопии. Еще в начале XIX века в спектре натрия были замечены яркие желтые линии. Позже множество отдельных линий нашли и в спектрах других веществ. Такую дискретность излучений классическая физика опять-таки не объясняла (если не считать отдельных экзотических гипотез, которые мало кто принимал всерьез).

Особенно ярко эта проблема высветилась в середине XIX века, когда швед Андерс Ангстрем (Anders Jonas Ångström) и немец Юлиус Плюккер (Julius Plücker) с очень высокой для своего времени точностью измерили длины волн всех четырех линий водородного спектра, лежащих в оптическом диапазоне (то есть в видимом свете). Их результаты буквально заворожили Иоганна Бальмера (Johann Jakob Balmer), преподавателя физики в базельской женской гимназии и приват-доцента тамошнего университета. После многолетних поисков он подобрал формулу (см. также Balmer series), которой подчинялась эта четверка чисел. Она была очень простой, но для тогдашней физики несколько странноватой. Единственной переменной там служил квадрат целого числа m, большего двух. При подстановке значений m, равных 3, 4, 5 и 6, формула непонятно почему выдавала длины волн линий, измеренных Ангстремом и Плюккером. И чудеса на этом не закончились. Знакомый профессор физики сообщил Бальмеру, что астрономы промерили еще десяток водородных линий, лежащих в ультрафиолетовой части спектра. Их длины волн послушно встали в строй — им соответствовали значения m в диапазоне от 7 до 16.

Бальмер опубликовал свои результаты в 1885 году (к слову, в том же году родился Бор). Вскоре было показано, что его формулу нетрудно обобщить, если ее записать не для длин волн, а для частот. Тогда она выглядит как ω = R(1/n12 – 1/n22), где n1 и n2 — целые числа, причем второе больше первого, ω — частота излучения, а константа R имеет размерность 1/сек. Это соотношение называют формулой Ридберга (см. также Rydberg formula) (иногда Бальмера–Ридберга), а R — постоянной Ридберга (Rydberg constant). Частоты линий видимого спектра, вычисленные самим Бальмером, получаются из нее при n1 = 2, и n2 от 3 до 16. При n1 = 1 она рождает частоты линий ультрафиолетового диапазона, выявленные в 1906–14 годах американским спектроскопистом Теодором Лайманом (Theodore Lyman). При n1 = 3 формула выдает линии инфракрасного спектра водорода, которые в 1908 году открыл профессор Тюбингенского университета Фридрих Пашен (Louis Karl Heinrich Friedrich Paschen). Известны также спектральные серии водорода (см. также Hydrogen spectral series), соответствующие еще большим значениям n1, которые тоже прекрасно описываются формулой Ридберга.

Посмотреть вложение 2945921
Вверху: модель атома водорода по Бору. Внизу: диаграмма энергетических уровней атома водорода. Здесь представлены серии Бальмера, Лаймана и Пашена (пояснения см. в тексте). Изображение с сайта cronodon.com

К началу прошлого века эта формула вошла в учебники на правах чисто эмпирической зависимости. Ее объяснение стало ключевым успехом модели Бора.
Дорога к квантам

В 1903 году Нильс Бор поступил в Копенгагенский университет, где в декабре 1909 года получил степень магистра физики, а 13 мая 1911 года защитил докторскую диссертацию. Обе работы были посвящены электронной теории металлов, разработанной Паулем Друде (Paul Drude) и Хендриком Антоном Лоренцем (Hendrik Antoon Lorentz). Эта теория побудила Бора усомниться в способности классической физики объяснить свойства твердого тела, но до квантовых идей он тогда еще не добрался.

Став доктором наук, Бор получил годичную стипендию для работы за границей и в сентябре отправился в Кавендишскую лабораторию Кембриджского университета. Правда, у него не сложились отношения с ее директором, первооткрывателем электрона и Нобелевским лауреатом Джозефом Джоном Томсоном, так что пребывание в Кембридже особой пользы не принесло. Однако в ноябре он отправился в гости к другу покойного отца (кстати, известного физиолога и номинанта Нобелевской премии Христиана Бора) в Манчестер, где познакомился с Резерфордом. Тот пригласил молодого датчанина в свою лабораторию, где Бор и пробыл с марта 1912 года до конца июля.

Этот переезд радикально изменил его будущее. Он из первых рук ознакомился с моделью Резерфорда и задумался о том, как привязать электроны к ядру, не нарушая стабильности атома. Сначала он предположил, что электроны связаны с ядром упругими силами и потому вибрируют около него, как шарики на пружинке. Эта модель оказалась неудачной, но вывела Бора на квантовую физику.

Согласно теории Планка (Max Planck), энергия «атомного вибратора» равна целому числу n элементарных порций, квантов, причем энергия кванта задается произведением постоянной Планка h (см. также Planck constant) на частоту колебаний вибратора ω (то есть энергия вибратора Е = nhω). Бор уверовал в эту теорию и принялся искать новые способы связать ее с резерфордовской моделью.
Планетарная модель

Бор еще в Манчестере пришел к заключению, что теоретическое обоснование резерфордовской модели атома возможно лишь за рамками классической физики. Эта идея прочитывается в памятной записке, которую он отправил Резерфорду перед возвращением в Данию (см.: Niels Bohr Collected Works // North-Holland, Amsterdam, 1972. Vol. 2, p. 136). Бор пока на знал, как это сделать, но уже не сомневался, что без теории квантов не обойтись.

В Копенгагене Бор не прекращал обдумывать возможные объяснения структуры атома. В начале февраля он поделился своими идеями с молодым физиком Хансом Хансеном (Hans Marius Hansen), изучавшим спектроскопию в Геттингенском университете. Тот поинтересовался, нельзя ли на их основе объяснить спектральные формулы. Тут-то Бор вспомнил формулу Бальмера–Ридберга, которую, возможно, когда-то видел в учебнике, но прочно позабыл (позднее он утверждал, что до беседы с Хансеном вообще о ней не слышал, но это весьма сомнительно). Как бы то ни было, Бор понял, что эту формулу можно вывести с помощью дополнительной гипотезы, связывающей орбитальную энергию электрона с постоянной Планка. Уже 6 марта он послал Резерфорду рукопись статьи с изложением своих выводов, которая потом и была опубликована в журнале Philosophical Magazine.
Уравнения Бора до смешного просты, а их следствия — невероятно глубоки. Сначала он выписал классическую формулу, связывающую частоту обращения единичного электрона вокруг неподвижного атомного ядра с минимальной энергией W, необходимой электрону, чтобы разорвать связь с ядром (она называется энергией ионизации). Для круговой орбиты она выводится с помощью школьной физики: ω = 21/2W3/2/πeEm1/2 (где ω — частота, e и E — соответственно заряды электрона и ядра, m — масса электрона). Затем Бор формулирует свою генеральную гипотезу: W = nhω/2 (половинка появилась по техническим причинам, которые можно опустить). Отсюда сразу следует, что W = 2π2me2E2/n2h2, то есть энергия ионизации электрона обратно пропорциональна квадрату целого числа. Бор вычислил также и диаметр орбиты электрона, где этот же квадрат вынесен в числитель. Такие вычисления не составят труда для семиклассника, причем отнюдь не отличника.

Каков же итог? Бор ввел в свою модель классические орбиты электрона, но ограничил их набор с помощью квантовой гипотезы. Вот и получилось, что множество устойчивых электронных орбит хоть и бесконечно, но дискретно. Каждая из них имеет определенный номер n, он же квантовое число — 1, 2, 3 и далее до бесконечности. Чем больше n, тем дальше электрон от ядра. Эти орбиты Бор назвал стационарными состояниями.

Затем Бор формулирует два «принципиальных допущения», которые теперь называют постулатами. Согласно первому постулату, стационарные состояния можно описать посредством классической механики, но переходы между ними подобного описания не допускают. Второй постулат утверждает, что при самопроизвольном переходе электрона с одного стационарного состояния на другое испускается порция однородного (на современном языке — монохроматического) излучения, чья частота связана с энергией формулой Планка. В следующем абзаце Бор специально отметил, что эти постулаты противоречат классической электродинамике, но необходимы для объяснения экспериментальных фактов.

После этого Бор перешел к собственно атому водорода. Есть все основания считать, утверждает он, что этот атом состоит из ядра и одного-единственного электрона (к слову, это еще не было общепринятым). Поэтому для описания его электронных состояний можно использовать только что выведенные формулы, если принять заряд ядра E равным заряду электрона e. В этом случае формула Ридберга оказывается прямым следствием боровской модели!
Разность между энергиями ионизации стационарных состояний с номерами n1 и n2 записывается как 2π2me4/h2(1/n12 – 1/n22). Согласно второму постулату, при переходе из состояния n2 в состояние с меньшим квантовым числом n1 испускается квант именно с такой энергией, которая в то же время равна его частоте, умноженной на постоянную Планка. Отсюда следует, что сама частота ω = 2π2me4/h3(1/n12 – 1/n22). Это и есть формула Бальмера-Ридберга, где константа R равна 2π2me4/h3. Если сюда подставить численные значения массы и заряда электрона и постоянной Планка, получится, что R = 3,1 × 1015 1/сек. Бор также вычисляет радиус ближайшей к ядру стационарной орбиты с квантовым числом n = 1, равный 0,55 × 10–8 см (сейчас его называют боровским радиусов водородного атома).

Бор продемонстрировал объяснительную силу своей модели и другим способом. В конце XIX века гарвардский астроном Эдвард Чарльз Пикеринг (Edward Charles Pickering) обнаружил в излучении звезды Дзета Кормы спектральную серию, которая по структуре напоминала линии водорода, но не описывалась формулой Ридберга. В 1912 году те же линии промерил в лаборатории лондонский физик Альфред Фаулер (Alfred Fowler). Бор понял, что эти линии принадлежат атому гелия, лишенному одного электрона, то есть одноэлектронному иону этого газа. Тогда в формуле для частот излучения надо положить, что заряд ядра вдвое больше заряда электрона, отчего все частоты умножаются на 4 по сравнению с аналогичными частотами водорода. Это объяснение оказалось стопроцентно верным.
И что потом?

В сентябре и в ноябре Бор опубликовал еще две статьи с такими же заголовками, что и первая, где рассмотрел многоэлектронные атомы и молекулы (см: On the Constitution of Atoms and Molecules. Part II. Systems Containing Only a Single Nucleus // Philosophical Magazine. 1913. V. 26. P. 476–502 (в русском переводе: «О строении атомов и молекул». Часть вторая. Системы, содержащие только одно ядро) и On the Constitution of Atoms and Molecules. Part III. Systems containing several nuclei // Philosophical Magazine. 1913. V. 26. P. 857–875.) В ходе работы над ними Бор доказал, что магнитный момент орбитального электрона квантуется подобно энергии, и вычислил величину этого кванта. Правда, этот вывод Бор почему-то не стал публиковать, но в рукописи он сохранился. В 1920 году Вольфганг Паули (Wolfgang Pauli) назвал квант электронного магнитного момента магнетоном Бора (см.: W. Pauli. Quantentheorie und Magneton // Physikalische Zeitschrift. 1920. V. 21. P. 615–617). Точности ради стоит отметить, что за два года до Бора его вычислил румынский студент-физик Штефан Прокопиу (см.: Stefan Procopiu. Determining the Molecular Magnetic Moment by M. Planck’s Quantum Theory // Bulletin Scientifique de l’Académie Roumaine de Sciences, Bucharest, 1913. V. 1. P. 151), о чем Бор, конечно, не знал. Во второй статье Бор также отметил, что источником бета-лучей могут быть только распадающиеся атомные ядра. В обоснование этой гипотезы он привел два аргумента: во-первых, энергии бета-электронов слишком велики для того, чтобы они вылетали из атомных оболочек; во-вторых, различные изотопы одного и того же элемента, имеющие одинаковые электронные структуры, могут испускать бета-частицы неодинаковой энергии. Вскоре с аналогичными выводами выступила Мария Кюри, и уже на следующий год среди физиков сформировалось убеждение, что любые радиоактивные процессы связаны с ядерными превращениями.

Для объяснения электронной структуры атомов тяжелее водорода полуклассический-полуквантовый подход Бора оказался не слишком полезным. Это и немудрено, ведь такие структуры точно не вычисляются даже на основе уравнения Шрёдингера. Однако формулы для спектров одноэлектронных атомов (их называют водородоподобными), которые Бор вывел в своей первой статье, уравнение Шрёдингера оставило в силе.

И в этом Бору сильно повезло. В квантовой механике состояние электрона в составе атома описывается не одним, как у Бора, а тремя квантовыми числами (остальные два характеризуют величину и направление углового момента). Но если не учитывать спины электрона и ядра и не принимать во внимание релятивистские эффекты, то оказывается, что энергия электрона водородоподобного атома (и только его одного!) полностью определяется главным квантовым числом, которое как раз и ввел Бор. Поэтому в первом приближении спектральные линии водородоподобных атомов прекрасно соответствуют формуле Ридберга, выведенной в работе Бора. Чтобы заметить отклонения, необходимы более точные спектрографы, нежели те, которыми пользовались Ангстрем и Плюккер. Впервые их обнаружили Альберт Майкельсон и Эдвард Морли в 1887 году (Albert A. Michelson and Edward W. Morley. On a method of making the wave-length of sodium light the actual and practical standard of length // Philosophical Magazine. 1887. V. 24. P. 463–466). Любопытно, что это открытие было сделано одновременно с их прославленным экспериментом (см. Michelson–Morley_experiment), заставившим усомниться в существовании светоносного эфира. Оказалось, что линии водородного спектра (а также спектров многоэлектронных атомов) имеют тонкую структуру, то есть расщеплены на дублеты (их-то и наблюдали Майкельсон и Морли) или мультиплеты. Возможно, Бор не был осведомлен об этом в начале 1913 года, но в самом его конце он затронул эту проблему в письме к Резерфорду (Niels Bohr Collected Works. Vol. 2, p. 591). Первое и пока что частичное объяснение расщепления спектральных линий водорода дал в 1916 году профессор Мюнхенского университета Арнольд Зоммерфельд (Arnold Sommerfeld. Zur Quantentheorie der Spektrallinien // Annalen der Physik. 1916. V. 51. P. 125–167).

Полностью это явление (как для водорода, так и для остальных элементов) физики много позже интерпретировали на базе квантовой механики и квантовой электродинамики. Но это уже совсем другая история.

Алексей Левин

http://elementy.ru/news/432025
 

Inquisitor

Ословед
Synopsis: A Solid Look-Alike

Посмотреть вложение 2945927
Emulating Solid-State Physics with a Hybrid System of Ultracold Ions and Atoms
U. Bissbort, D. Cocks, A. Negretti, Z. Idziaszek, T. Calarco, F. Schmidt-Kaler, W. Hofstetter, and R. Gerritsma
Phys. Rev. Lett. 111, 080501 (2013)
Published August 20, 2013

The physics of complex solids—such as superconductors, multiferroics, and compounds that exhibit colossal magnetoresistance—is often too difficult to tackle with theory or numerical analysis. Building a device that behaves exactly like a solid may instead be a better strategy for modeling these materials. For example, recent research has demonstrated that cold atoms trapped by lasers and arranged in “artificial lattices” can emulate the properties of solids. Now, in Physical Review Letters, theorists propose a combination of ionic and neutral gases that could be the ideal quantum simulator for solids in which electrons interact strongly with lattice vibrations.

Ulf Bissbort at the Institute for Theoretical Physics in Frankfurt, Germany, and his colleagues analyze a system consisting of a one-dimensional chain of laser-trapped ions, interacting with a surrounding cloud of neutral fermionic atoms. Their analysis shows that the two species would play the role of a solid’s atoms and electrons, respectively. What makes the scheme much closer to a real solid than previous cold-atom simulators is the interaction between the electronlike neutral atoms and the ions: the movement of the neutral atoms can induce vibrations of the ions around their equilibrium positions (and vice versa)—an interaction that mimics electron-phonon coupling in a natural solid.

The authors show that the system displays an interesting effect similar to that found in solids, called the Peierls instability: when cooled below a certain temperature, an equispaced chain of atoms with one electron per atom can distort and form dimers and, as a consequence, turn from a metal into an insulator. – Matteo Rini

http://physics.aps.org/synopsis-for/10.1103/PhysRevLett.111.080501
 

Inquisitor

Ословед
Skyrmion spin control could help speed up electronics

Посмотреть вложение 2945930
Whirling vortices – a single skyrmion

Researchers in Germany have succeeded in controlling tiny magnetic-spin patterns known as "skyrmions" for the first time. The result could be important for future high-density data-storage technologies and nanodigital electronic devices with improved data-transfer speeds and processing power.

Skyrmions are small magnetic vortices that occur in many materials, including manganese–silicide thin films (in which they were first discovered) and cobalt–iron–silicon. In the new work, the researchers studied a palladium–iron bilayer on an irridium-crystal surface. The tiny vortices can be imagined as 2D knots in which the magnetic moments rotate about 360° within a plane (see figure).

Skyrmions could form the basis of future hard-disk technologies. Today's disks use magnetic domains (in which all of the magnetic spins are aligned in the same direction) to store information, but there are fundamental limits to the size such domains can be made. It might be possible to make skyrmions that are much smaller and that could therefore be used to create storage devices with much higher densities. What is more, flipping all of the spins in conventional domains – to switch a device's memory state from 1 to 0, for example – requires considerable power and can be slow; skyrmions require fewer spin flips to switch. In addition, the final spin state is not easily disrupted – making these skyrmion structures more stable than conventional magnetic domains.
Creating and annihilating single skyrmions

Before skyrmions can be exploited in hard drives, however, scientists need to figure out a way to control them – something that has proved difficult to date. A team of researchers at the University of Hamburg, led by Kirsten von Bergmann, André Kubetzka and Roland Wiesendanger, has now shown that it is possible to create and annihilate single magnetic skyrmions using a spin-polarized current – one in which spin is mostly aligned in one direction – from a scanning tunnelling microscope (STM) tip, albeit at ultralow temperatures of 4.2 K. According to the researchers, the skyrmions switch from one state to another thanks to spin-transfer torques, and one state (skyrmions present) can be favoured over the other (skyrmions absent).

"To write or delete a skyrmion we position our STM tip at a particular spot on the sample and inject a spin-polarized tunnel-current pulse into it," explains Von Bergmann. "While at low currents and voltages the sample magnetization is stable, at higher currents and voltages the magnetic state starts to switch between a skyrmion and a simple parallel alignment of magnetic moments," she told physicsworld.com. "In this situation, the current direction can determine which of the states is favoured over the other – a clear indication that spin-transfer torque is involved in the switching process."
IT applications

Being able to write and delete skyrmions in this way means that such spin textures can now be exploited in information technology. "In particular, the possibility of using layered thin films in this way, as is the case in conventional IT-device technology, could lead to a big step forward towards applications," adds Von Bergmann.

The Hamburg team is now busy trying to understand the switching mechanism in more detail and finding out exactly how the spin-polarized current couples to the magnetization. "This will help us to optimize the process of writing and deleting skyrmions," says Von Bergmann. "We will also be investigating other thin-film materials in an effort to unearth systems that show such skyrmion switching at room temperature."

Skyrmions are named after the UK particle physicist Tony Skyrme, who in 1962 found that they could explain how subatomic particles such as neutrons and protons exist as discrete entities emerging from a continuous nuclear field.

The results are published in Science.

http://physicsworld.com/cws/article...-spin-control-could-help-speed-up-electronics
 

Inquisitor

Ословед
Physicists get to grips with complex systems

Посмотреть вложение 2945933
Fine balance: what is the best way to avoid critical events?

A team of researchers in the US has worked out a scheme for optimal control of complex systems, where one event can lead to another. The researchers have studied how best to intervene in so-called self-organized critical systems, which are constantly poised on the brink of a cascade, so as to suppress or manage "avalanches" and propagating crises. The approach might potentially be applied to real landslides and avalanches, forest fires and perhaps even economic crises.
Risk assessment

Sometimes the best way to prevent a big crisis is to bring on a small one. Large snow avalanches can be avoided by using explosives to trigger smaller ones and the same strategy has been discussed for earthquake control. But it might be risky and potentially costly to trigger even little cascade events in complex systems such as these.

To find the best balance between avoiding catastrophic cascades and inducing small ones, Pierre-André Noël, Charles D Brummitt and Raissa M D'Souza from the University of California, Davis in the US, considered as their model the standard example of self-organized criticality (SOC) – the sand pile. A pile of sand, to which grains are slowly being added at the apex, is always prone to avalanches of any size – from just a few tumbling grains to a landslide of the whole pile surface – because of "chain reactions" in grain collisions. There is no telling at the outset how big an avalanche might be. But the probability of it occuring decreases – in a mathematical relationship know as a "power law" – as the event gets bigger. That is the signature of SOC and it has been seen in models of earthquakes, forest fires, ecosystem collapses and economic fluctuations.

Whether such behaviour applies in the corresponding real-world examples remains controversial. Systems engineer John Doyle of the California Institute of Technology says that power laws in such cases are generally illusory, caused by poor data analysis. "There are no examples in nature or technology that are plausibly examples of SOC," he says.

All the same, SOC and sand piles might offer at least an analogue of how cascades and failures can propagate through complex systems consisting of many interacting components – particularly when these components are joined into branching networks of interaction, such as power grids and ecosystems.
Strain release

As power blackouts such as those that struck the eastern seaboard of North America in 2003 showed, major cascades in these systems can be hugely costly and even fatal. One way to avoid such catastrophes is to release any build-up of "strain" in the system before it develops into a big cascade by intentionally triggering a smaller one. But that might be costly, both in terms of the amount of intervention needed and the consequences of the smaller events. Given a particular "cost function" that specifies the cost of an event of a particular size, says Noël, "there is an optimal level of control – to avoid catastrophic failures, say – that does not push too hard".

To show this in a sand pile, the researchers developed a model in which the grains are linked into interaction networks that specify which of them will affect others. They considered that all cascades have a cost proportional to their size, and calculated the fraction of forced cascades (denoted μ) that minimizes the total cost. In their model, the only means a controller has of inducing or suppressing cascades is to specify where in the network a new grain lands – akin to dropping snow or starting a forest fire in a particular location.

Noël and colleagues found that, in general, there is an optimal value of μ between 0 (no cascades at all) and 1 (all cascades are triggered). Trying too hard to suppress cascades (making μ too small) can be counterproductive, pushing the system towards the "critical" state in which a major cascade is likely.
Real-world problems

Alessandro Vespignani, a specialist on complex networks at Indiana University in Bloomington, says that among those working on self-organized criticality, "this phenomenology was already known and not surprising". However, he adds that the new work shows how to express the problem in formal terms, which could point the way to more nuanced theoretical treatments.

Noël agrees that the general approach of "strain relief" is already well understood. "Our contribution is to identify the general mechanism behind this type of behaviour, and provide a way to track it analytically," he says.

But it is still unclear how this quantitative strategy could be implemented in real-world systems, according to Vespignani. Frank Schweitzer, a specialist in complex social systems at the Swiss Federal Institute of Technology (ETH) in Zurich, shares that concern. "In real-world systems, it's often impossible to control where a cascade starts," he says. "It's often easier to control connectivity or node capacity, neither of which is touched in the proposed model." He thinks that some of the more sophisticated strategies already employed, such as "load-shedding" in power grids, will remain preferable.

"It's difficult to extrapolate to real-world scenarios because they're so much more rich than this simple model," Noël admits. "But the model begins to define what to measure and which mechanisms matter."

The research is published in Physical Review Letters.

http://physicsworld.com/cws/article/news/2013/aug/16/physicists-get-to-grips-with-complex-systems
 

Inquisitor

Ословед
Mobius strip ties liquid crystal in knots to produce tomorrow's materials...

...and photonic devices.

Посмотреть вложение 2945936

This shows liquid crystal knots created around miniature Möbius strip particles (simulation). Different knots are produced by strips with different numbers of twists. The central part of the knot is shown in red around the strip in blue.

By tying substances like this in knots, the researchers hope to understand how their intricate configurations and unique properties can be harnessed in the next generation of advanced materials and photonic devices.

Liquid crystal is an essential material in modern life – the flat panel displays on our computers, TVs and smartphones all make use of its light-modulating properties.

It is composed of long, thin, rod-like molecules which align themselves so they all point in the same direction. By controlling the alignment of these molecules, scientists can literally tie them in a knot.

To do this, they simulated adding a micron sized silica particle – or colloid – to the liquid crystal. This disrupts the orientation of the liquid crystal molecules.

For example, a colloid in the shape of a sphere will cause the liquid crystal molecules to align perpendicular to the surface of the sphere, a bit like a hedgehog's spikes.

Using a theoretical model, the University of Warwick scientists have taken this principle and extended it to colloids which have a knotted shape in the form a Möbius strip.

Посмотреть вложение 2945939
This is a visualization of the average configuration of the molecules in a liquid crystal knot (simulation). (A) A plane cross-section of the knot with the molecular alignment indicated by small cylinders. The grey rectangles correspond to a part of the particle and the red spots highlight central portions of the knot. (B) A full three-dimensional visualization with molecular orientation shown as a color map. Different colors correspond to different orientations as given in the inset. Credit: University of Warwick

A Möbius strip with one twist does not form a knot, however with three, four and five twists it becomes a trefoil knot (like an overhand knot with the ends joined together), a Solomon's knot or a cinquefoil knot respectively.

By adding these specially designed knotted particles they force the liquid crystal to take on the same structure, creating a knot in the liquid crystal.

Gareth Alexander, Assistant Professor in Physics and Complexity Science, at the University of Warwick said: "Knots are fascinating and versatile objects, familiar from tying your shoelaces.

"Recently it has been demonstrated that knots can be created in a variety of natural settings including electromagnetic fields, laser light, fluid vortices and liquid crystals.

"These knots are more intricate than those in your shoelaces, since it is the entire continuous material, and not just a piece of string, that is knotted.

"Our research extends this previous work to apply to liquid crystal, the substance we use every day in our TVs, smartphones and computer screens.

"We are interested in this as creating and controlling these intricate knotted fields is an emergent avenue for the design of new metamaterials and photonic devices."

Explore further: Physics duo create first knotted vortex in a fluid (w/ video)

More information: The study, published in the journal PNAS, is entitled "Knots and nonorientable surfaces in chiral nematics" and is authored by Thomas Machon and Gareth Alexander, both jointly based in the Department of Physics and the Centre for Complexity Science at the University of Warwick. www.pnas.org/content/early/2013/08/09/1308225110.abstract

http://phys.org/news/2013-08-mobius-ties-liquid-crystal-tomorrow.html
 
Сверху