суббота, 26 января 2013 г.

Дискурсивные слова

Дискурсивные слова – термин, может быть, не очень известный. Это сравнительно новая область лингвистики, очень живая и очень сложная. Пожалуй, более известно слово «дискурс»: так называется связный текст, произносимый в определенной ситуации и с определенными задачами; собственно, это и есть то, чем мы обмениваемся, когда пользуемся языком. Понятно, что всякий текст состоит из слов. И в этом смысле, наверное, все слова – дискурсивны. Но дискурсивными в узком смысле называют особую группу слов: не существительные, не глаголы, не прилагательные, не, так сказать, основное ядро, несущее главную нагрузку в передаче смыслового задания, а такие вот маленькие, непонятные, очень трудно переводимые словечки. На первый взгляд, это почти слова-паразиты, но на самом деле они совершенно необходимы и автору, и адресату речи: они помогают строить дискурс или, как ещё говорят лингвисты, обеспечивают связность текста. Подробно здесь.

Язык в интернете

Последние записи о лингвистике, и это неудивительно: актуально. Очень. И перед вами свежий взгляд:

понедельник, 7 января 2013 г.

О теоретической лингвистике и не только

Кто такие лингвисты? Как лингвистика соотноситься с преподаванием языка в школах? Что такое владеть языком? 
Рассказывает доктор филологических наук, член-корреспондент РАН, профессор, заведующий отделом типологии и ареальной лингвистики Института языкознания РАН и отделом корпусной лингвистики и поэтики Института русского языка имени В.В. Виноградова РАН, специалист в области морфологии, африканистики и корпусной лингвистики

суббота, 5 января 2013 г.

Социология игрушек



По каким причинам в области социологии тема игрушек осталась малоисследованной? Какое понимание игрушек разрабатывает микросоциология? И какой вопрос можно назвать основным в социологии игрушек? Об этом рассказывает кандидат социологических наук Виктор Вахштайн.

кандидат социологических наук, заведующий кафедрой теоретической социологии и эпистемологии РАНХиГС при Президенте Российской Федерации, специалист в области социологии повседневности и социальной теории

//материал сайта http://postnauka.ru/video/3422


четверг, 3 января 2013 г.

10 важнейших событий в науке и IT (по версии СМИ)

03. Диалоги с богом или Нобелевская премия по биологии и медицине

Лауреатами Нобелевской премии в области физиологии и медицины в 2012 году стали британский ученый Джон Гердон и японский исследователь Синъя Яманака за «открытие возможности перепрограммирования зрелых клеток в плюрипотентные». Если говорить проще, то работы этих ученых показали что биологические часы возможно запустить вспять…

По мере развития организма животного потенциал развития клеток сужается. Если из оплодотворенной яйцеклетки можно получить любую клетку (это свойство называется плюрипотентностью), то потенциал соматических клеток резко ограничен. Нейрон не превратится в клетку кожи, а клетка кожи не превратится в кардиомиоцит. Наибольшим потенциалом среди соматических клеток обладают стволовые клетки, но и они способны давать начало ограниченному числу типов клеток (в данном случае говорят о мультипотентности стволовых клеток взрослого организма). Это такое своеобразное «дифференцировочное» старение на клеточном уровне. А старение — процесс необратимый. Так вот, работы лауреатов этого года показали, что все не так и все намного интересней.
Работа, опубликованная Джоном Гердоном в 1962 годы (награда долго ждала героя), давно уже стала классической и приводится в любом серьезном учебнике эмбриологии. Суть проста. Была взята яйцеклетка лягушки, ядро в которой было было «убито» облучением. В такую безъядерную клетку было подсажено ядро из клетки кишечника. И из такой гибридной клетки развивались головастики. Этот эксперимент, в частности, доказывал, что геном соматической клетки содержит всю ту информацию, которая есть в яйцеклетке, а значит, сужение потенций клеток в ходе развития не связано с кокой-то деградацией части генов. А следовательно, развитие можно обратить вспять, превратив соматическую клетку в плюрипотентуню с помощью такой вот хирургии на клеточном уровне. Из этого эксперимента, в частности, берут начало все работы по клонированию животных.
Заслуга Синъя Яманака состоит в том, что ему первому удалось получить плюрипотентные клетки из зрелых соматических клеток, не используя эмбриональные клетки в качестве индуктора плюрипотентности. Активировав всего четыре гена ему удалось превратить обычные дифференцированные клетки соединительной ткани в стволовые. Это и есть перепрограммирование соматических клеток в результате которого получаются так называемые индуцированные стволовые клетки, которые потом могут дать начало практически любым клеткам взрослого организма. По сути, в данном случае происходит омоложение, так как расширение дифференцировочного потенциала – это и есть признак молодости на клеточном уровне.
Важность этих исследований состоит еще и в том, что подобный подход позволяет отказаться от работы с эмбриональным материалом. В случае с человеком это сопряжено с этическими проблемами. Если же создавать плюрипотентные клетки из соматических, то такого рода сложностей не возникает. А стволовые клетки можно использовать для восстановления поврежденных болезнью или состарившихся органов и тканей. В настоящее время многие рассчитывают, что на основе этих работ удастся разработать методы получения необходимых стволовых клеток для в медицины. Это дает надежду на то, что многие неизлечимые в настоящее время болезни когда-нибудь будут побеждены.



10 важнейших событий в науке и IT (по версии СМИ)

2. Разбор ДНК человека

Важным достижением названо и завершение десятилетнего проекта ENCODE(Энциклопедии ДНК-элементов). Итогом стал вывод, что генетический код человека является более функциональным, чем считалось раньше - по крайней мере 80% генома биологически активны.
//http://www.noi.md/ru/news_id/17437

Геном человека, как совокупность всей наследственной информации, содержит далеко не одни только гены, то есть кодирующие белки фрагменты ДНК. Намного большую его часть составляют некодирующие последовательности. Когда в 1990-х шла работа над международным проектом «Геном человека», основное внимание по понятным причинам было уделено именно кодирующим генам. Каково же было удивление ученых, когда выяснилось, что они составляют максимум 3% нашего генома! Миллиарды оснований ДНК, казалось бы, вообще бессмысленны – недаром они получили едва ли не презрительное название «мусорной ДНК».

Насчет ее биологической роли имеются разные предположения. Такая ДНК может кодировать не белки, а разные виды «малых» РНК – транспортной, рибосомальной, ядрышковой и т.д., может играть роль в регуляции активности генов и «созревании» матричной РНК, в упаковке ДНК в хромосомы и даже в снижении опасности мутаций: любые «ошибки», возникающие по той или иной причине в ДНК, скорее всего, «попадут» именно на эту, ничего не значащую и никому не нужную часть.

Чтобы разобраться с этой проблемой генетики начали реализацию масштабного проекта – «Энциклопедия элементов ДНК» (Encyclopedia of DNA Elements, ENCODE), который уже сегодня принес ряд интересных находок, показав, что масса фрагментов той самой «мусорной» ДНК играют весьма важную роль в жизни человека. Как и следовало ожидать, часто они выполняют регуляторную функцию – к примеру, активируя или деактивируя соответствующие гены в ходе созревания и дифференциации клеток, превращении их, скажем, в нефроны почек или нейроны мозга. «В геноме есть масса всего помимо генов», - говорит один из участников проекта ENCODE Марк Герштейн (Mark Gerstein).

В рамках работы по проекту исследователи из более чем 30-ти институтов разных стран мира проводят компьютерный анализ ДНК-последовательностей, биохимические эксперименты и секвенирование, работая с человеческими клетками 147-ми различных типов. Конечная цель выглядит весьма масштабной: установить конкретную задачу, которой служит каждое из более чем 3 млрд оснований, составляющих наш геном.

По полученным данным, ту или иную активность демонстрирует около 80% этих оснований. Одни служат сайтами для связывания белков, регулирующих активность генов. Другие становятся основой для синтеза тех или иных видов РНК, помимо матричной (мРНК), на которой затем синтезируется белок. Третьи позволяют эффективно упаковать ДНК в хромосому... Словом, многие высказанные ранее гипотезы находят свое подтверждение. И все равно ENCODE существенно меняет современные представления о работе генома.

К примеру, выяснилось, что в ту или иную форму РНК превращается 76% нашей ДНК – намного больше, чем считалось исходя из теоретических оценок. В это число входит чуть менее 21 тыс. мРНК, кодирующих белки – удивительно мало! Кроме того, в ДНК содержатся последовательности, кодирующие 8,8 тыс. малых РНК разных типов и 9,6 тыс. длинных некодирующих молекул РНК длиной более 200 оснований. Было также идентифицировано 11224 фрагмента «псевдогенов» (генов, не проявляющих активность вообще, либо в конкретном типе клетки, либо у конкретного индивидуума).

В ходе проекта было выявлено порядка 4 млн сайтов, выполняющих роль регуляторов генной активности. Они могут располагаться как в непосредственной близости от регулируемого гена, так и на порядочном удалении от него, могут действовать поодиночке или в различных комбинациях, по-разному в различных клетках и у разных людей. Регуляция в геноме оказывается едва ли не более важной и сложной, чем сами гены.

В настоящее время в рамках проекта ENCODE создается полноценная карта человеческого генома, в котором каждому участку и каждому основанию будет приписана соответствующая роль. «Это как Google Maps для генома, - говорит Элиза Фейнгольд (Elise Feingold), одна из координаторов и руководителей программы, - В Google Maps можно найти нужное место и рассмотреть его во всех нужных видах и аспектах. Так же и в ENCODE можно ”приблизить” нужный участок ДНК – от масштаба хромосомы до отдельных оснований – и рассмотреть его функциональность во всех деталях».
//http://www.popmech.ru/article/11672-genyi-i-prochiy-musor/


среда, 2 января 2013 г.

10 важнейших событий в науке и IT (по версии СМИ)

1. Открытие "частицы Бога"

О революционном событии ученые Европейского центра по ядерным исследованиям (CERN) сообщили летом. Бозон Хиггса был последним недостающим элементом в теории об устройстве Вселенной. Гипотезу о существовании частицы более 40 лет назад выдвинул профессор Питер Хиггс. 89-летний ученый с радостью воспринял сообщение о том, что его теория подтвердилась.

\\http://www.noi.md/ru/news_id/17437


Все знают, что тела и элементарные частицы имеют массы. А как возникают массы? Казалось бы, что можно просто принять существование масс как факт и на этом успокоиться. Однако возникла проблема. Теоретики нашли очень плодотворный путь построения теории взаимодействия элементарных частиц. Достаточно найти симметрию в конкретном взаимодействии и потребовать инвариантности относительно поворотов в соответствующем пространстве, как автоматически получаются поля-переносчики данного взаимодействия. Такой подход лежит в основе Стандартной модели, описывающей электромагнитное, слабое и сильное взаимодействия.
Переносчиками этих взаимодействий являются соответственно фотон, W- и Z- бозоны и глюоны. В этой теории обязательно требуется, чтобы частицы-переносчики взаимодействия были безмассовыми. Фотоны и глюоны действительно имеют нулевые массы, а вот массы W- и Z- бозонов оказались очень большими, примерно в сто раз больше массы протона.
Для решения этой проблемы был придуман механизм, заключающийся в том, что исходно все эти частицы - безмассовые, а масса возникает динамически за счёт взаимодействия с неким скалярным полем, заполняющим всё пространство. Масса частицы пропорциональна константе взаимодействия данной частицы с этим полем. Квантом поля является как раз хиггсовский бозон, названный в честь одного из авторов данной теории механизма возникновения масс. Теория не предсказывает массу хиггсовского бозона, поэтому его искали в широком диапазоне масс.
Косвенные данные, полученные на коллайдере LEP в ЦЕРНе, сузили этот диапазон масс до 115-170 ГэВ. Дальнейший поиск проводился на протон-антипротонном коллайдере Tevatron в лаборатории Ферми в США, а затем в ЦЕРНе на Большом адронном коллайдере (LHC). В июле 2012 года физики, работающие на LHC, объявили об обнаружении частицы с массой 126 ГэВ, очень похожей на хиггсовский бозон.
 Если масса хиггсовского бозона известна, то теория предсказывает, сколько их должно родиться и на что они должны распадаться. Так, например, вероятность распада на пару лептонов пропорциональна квадрату массы этих лептонов. Это следует прямо из того, что масса пропорциональна константе взаимодействия. Это и требуется проверить, чтобы окончательно удостовериться, что найденная частица является хиггсовским бозоном. Следует заметить, что есть простейшая модель, а есть её разновидности. Например, теория суперсимметрии предсказывается три нейтральных и два заряженных хиггсовских бозона. Какая модель реализуется в природе, покажет эксперимент. Данные, полученные на LHC, довольно близки к ожидаемым, но есть некоторые отличия. Для более уверенных выводов требуется большая статистика.
Количество рождённых хиггсовских бозонов зависит от энергии пучков и интеграла светимости (пропорционального количеству столкновений протонов). За время работы до лета 2012 года на LHC произошло примерно 1015столкновений протонов при энергии 2E=7-8 ГэВ, при этом родилось всего около 103 хиггсовских бозонов, один на триллион столкновений. Выделение сигнала хиггсовского бозона при таком фоне является очень сложной задачей. Набранных до сих данных хватило только для того, чтобы заявить о статистически значимом обнаружении хиггсовского бозона (на уровне 5 сигм).
Главное, что хиггсовский бозон обнаружен и наконец стала известна его масса. Время жизни ещё не измерено, но поскольку сечение рождения наблюдаемой частицы близко к ожидаемому, то можно предположить и время жизни такой частицы близко к ожидаемому. Ожидаемая ширина хиггсовского бозона при массе 126 ГэВ составляет около Г≈4 МэВ и соответствующее время жизни 1.5•10-22 с. Электрический заряд равен нулю. Другие важнейшие характеристики, такие, как спин (ожидается ноль) и бранчинги (вероятности) распадов по различным каналам, ещё предстоит измерить. На этот счёт имеются предсказания для различных моделей. Очень важна точность измерения этих параметров, поскольку именно небольшие отличия позволят разобраться, какая модель соответствует реальности.
 На LHC сталкиваются протоны, а хиггсовский бозон рождается, в основном, при взаимодействии глюонов, содержащихся в протонах. Затем хиггсовский бозон распадается на пары WW*, ZZ* бозонов, пары тяжёлых кварков-антикварков , пары лептонов, в пару фотонов и другие моды. Конечные частицы регистрируются в детекторе, и по их энергии и углам рассчитывается масса распавшейся частицы. Например, строится распределение по инвариантной массе двух фотонов. Их рождается очень много, и подавляющее большинство не имеет никакого отношения к хиггсовскому бозону, поэтому они дают некоторое плавное распределение по инвариантной массе.
Фотоны же от распада хиггсовского бозона дают пик в этом распределении при массе хиггсовского бозона. На LHC этот "пик" составляет всего пару процентов от подложки. Именно из-за наличия фоновых процессов так трудно выделить события хиггсовского бозона. Некоторые каналы распада вообще невозможно выделить из-за фоновых процессов. Это является большим недостатком протонных коллайдеров. На них легче, чем на электрон-позитронных коллайдерах, достичь высокой энергии (поскольку они мало излучают при движении в кольце), но труднее выделить редкий процесс, поскольку протоны имеют довольно большие размеры, часто сталкиваются, разваливаются, создавая фоны.
Для детального изучения нужен электрон-позитронный коллайдер. Для рождения хиггсовского бозона достаточно суммарной энергии 240 ГэВ. Хиггсовский бозон будет рождаться в процессе. Фоны будут очень незначительными, можно будет легко измерить вероятности распада Хиггса в различные состояния. Можно даже изменить вероятность распада в невидимые состояния, регистрируя Z бозон и вычисляя недостающую массу.
Сейчас рассматриваются два варианта электрон-позитронного коллайдера: линейный и кольцевой. Преимущество линейного коллайдера в том, что на нём можно достигнуть существенно более высокой энергии, примерно до 3000 ГэВ. На кольцевом же коллайдере продвинуться выше 300 ГэВ практически невозможно из-за больших потерь энергии на синхротронное излучение. На какую энергию строить электрон-позитронный коллайдер, зависит от того, что обнаружат на LHC. Для этого нужно подождать ещё несколько лет, пока на LHC наберут достаточно статистики на максимальной энергии 2E=14 ТэВ.
Набранных данных пока достаточно только для открытия этой частицы, что это не статистическая флуктуация. Тем не менее можно сказать, что количество обнаруженных частиц и вероятности распада по зарегистрированным каналам близки к предсказаниям самого простого варианта модели хиггсовского бозона, хотя есть некоторые отличия.
Требуется большая точность (больше данных), чтобы делать выводы о том, согласуются ли свойства Хиггса с предсказанными. Любые отклонения будут свидетельствовать о новой физике, будут подсказкой, в каком направлении двигаться дальше.
Вообще-то, хиггсовский бозон - это далеко не конец физики частиц. Это, конечно, хорошо, что нашли недостающее звено Стандартной модели. Однако есть задача ещё более захватывающая. Совсем недавно удалось определить среднюю плотность Вселенной и её состав.
Получилось, что все известные виды материи составляют только около 5 процентов плотности Вселенной. В основном, это барионы (протоны, нейтроны, ядра), а также электроны, фотоны, нейтрино. Около 25 процентов - это "тёмная материя", какие-то неизвестные частицы, которые так же, как и обычная материя, сконцентрированы в галактиках. Это весьма твёрдо установленный факт. Для того чтобы удержать звёзды во вращающихся галактиках (включая наш Млечный Путь), необходима примерно в 5-6 раз большая масса, чем та, что наблюдается в галактиках (звёзды и межзвёздный газ).
Оставшиеся 70 процентов плотности Вселенной составляет "тёмная энергия", некая равномерно распределённая по Вселенной субстанция (возможно, вакуум), вызывающая антигравитацию на больших масштабах и ускоренное расширение Вселенной. Так что и искать новую физику не надо, она есть налицо, а не какие-то малые отклонения от Стандартной модели. Можно считать, что природа просто бросила вызов физикам!
Есть предположения о природе тёмной материи. Сейчас ведутся несколько подземных экспериментов по регистрации частиц тёмной материи. Они пока не обнаружены, но есть надежды. Ещё более привлекательно рождать тёмную материю на ускорителях. Тогда можно будет увидеть не только нейтральные стабильные её частицы, но и другие нестабильные частицы из этого семейства, тогда возможно будет понять природу этих частиц. Были предсказания, что массы этих частиц как раз лежат в области энергий LHC, однако пока ничего не обнаружено, но некоторые шансы найти остаются.
Что дальше, после LHC? Действительно, стоимость LHC составила около 6 млрд. долларов. В будущем планируется увеличить энергию LHC вдвое (путем замены магнитов на более сильные). Дальше возможен будет линейный электрон-позитронный коллайдер на энергии до 3 ТэВ. Рассматривается вариант очень большого протон-протонного коллайдера на энергию до 100 ГэВ. Также разрабатывается мюонный коллайдер на энергии до 100 ТeV. Дальнейший подъём энергии практически невозможен ввиду запредельной стоимости и размеров. Этот путь тупиковый, так как характерный масштаб энергий в физике частиц - это масса Планка (масса, составленная из фундаментальных констант скорости света, постоянной Планка и гравитационной постоянной), составляющая 1019 ГэВ, что на 15 порядков больше энергии Большого адронного коллайдера.
Другой подход, который, возможно, позволит понять, что происходит даже при массах Планка, - это детальное изучение редких процессов при доступных энергиях. Очень обещающей является нейтринная физика. Недавно обнаружено, что массы нейтрино отличны от нуля и лежат в области 10-3-10-2 эВ. Есть предположения, что их масса связана с явлениями при планковских энергиях. Детальное изучение нейтрино может также пролить свет на вопрос о том, почему Вселенная состоит из материи, а антиматерия куда-то подевалась. Казалось бы, что всё должно быть симметрично.
Правда, если бы было симметрично, то нас бы не было: материя и антиматерия проаннигилировали бы, и остались бы одни фотоны.
Стандартной модели требовался хиггсовский бозон, но не было предсказания его массы. В минимальном варианте хиггсовское поле описывается двумя параметрами, и только один был известен из масс W и Z бозонов. Теперь стала известной масса Хигсса, то есть найден второй параметр. Но вряд ли природа устроена так просто! Наверняка это только начало изучения того скалярного поля (а их может быть не одно), которое придает массы элементарным частицам. Вообще, это удивительно, что открыли хиггсовский бозон. Год с небольшим назад уже ожидали сигнала Хиггса, а его всё не было.
Дирекция ЦЕРНа уже отрабатывала с физиками вариант, что говорить налогоплательщикам, если хиггсовского бозона не будет обнаружено (или вообще ничего на LHC не откроют). Хиггсовский механизм - это только один из возможных вариантов, были и другие.
Пока на LHC только один результат высшего класса - это хиггсовский бозон. Есть некоторые интересные предварительные результаты с детектора LHCb, касающиеся CP-несохранения. Надо ещё разбираться, возможно, это выльется в крупное открытие. Имеются интересные результаты в ион-ионных столкновениях. Там изучается кварк-глюонная плазма, из которой когда-то состояла Вселенная.
Да, я уже говорил о линейных коллайдерах. Быть или не быть и на какую энергию, зависит от того, что откроют на LHC. ILС - International Linear Collider - это сверхпроводящий линейный коллайдер на энергию до 500-1000 ГэВ. Ещё есть проект теплого линейного коллайдера CLIC (Compact Linear Collider) с более высоким темпом ускорения. На нём можно будет достичь энергии 3000 ГэВ.
Длина обоих коллайдеров около 50 км. Существенным отличием линейных коллайдеров от циклических (кольцевых) является однократное использование разогнанных пучков электронов и позитронов. Просто их невозможно развернуть из-за излучения при повороте. Эта особенность позволяет превратить линейный коллайдер в гамма-гамма (фотон-фотонный) коллайдер с примерно такими же энергией и светимостью. Эту идею я предложил тридцать лет назад, и сейчас фотонный коллайдер рассматривается как естественное дополнение к линейному коллайдеру. В фотонном коллайдере сначала разгоняются навстречу электроны, а затем на расстоянии порядка 1 мм от места встречи их облучают мощным лазером.
При комптоновском рассеяния отраженный лазерный фотон забирает почти всю энергию у электрона (оптимально 80 процентов). Число таких фотонов примерно равно числу электронов в исходном пучке, и движутся они в том же направлении, в место встречи, куда были сфокусированы электроны. Получаются встречные фотон-фотонные или фотон-электронные столкновения.
В фотон-фотонных столкновениях может рождаться всё то же, что и в электрон-позитронных столкновениях, но по-другому. Например, два фотона переходят в один хиггсовский бозон, притом количество рождённых хиггсовских бозонов будет примерно таким же, как и в e+e- столкновениях.
Этот заключительный вопрос очень важен. Всё не совсем так. Хиггсовский механизм придает массы элементарным частицам: кваркам, лептонам, бозонам. Однако масса обычной материи, состоящей, в основном, из протонов и нейтронов, только на 2 процента обусловлена хиггсовским скалярным полем. Дело в том, что масса кварков, находящихся в протоне, составляет всего 2 процента от массы протона. А откуда взялась остальная масса? Масса ядра, например, меньше, чем масса составляющих его протонов и нейтронов. Так называемый дефект массы является источником ядерной энергии.
А для протона всё наоборот. Как же так? Вопрос очень непростой. Сначала рассмотрим один пример. Фотоны, как известно, имеют нулевую массу. Однако если ими наполнить ящик, то ящик с фотонами будет иметь массу, равную энергии всех фотонов, делённую на скорость света в квадрате. В протоне, правда, всё не так и намного сложнее. Рискну сформулировать, оперируя не совсем понятными словами. Итак, вакуум совсем не пустой. В нём постоянно рождаются и исчезают виртуальные частицы, это следует из квантовой механики. Имеются флуктуации глюонного поля, рождаются и исчезают кварк-антикварковые пары.
Так вот, глюонное поле действует на кварки и антикварки, меняет направление их движения, приводя к их эффективному взаимодействию, за счет которого кварк-антикварковая пара становится одной частицей, бозоном, и образуют кварк-антикварковый конденсат. Это похоже на куперовские пары в сверхпроводнике.
Валентные кварки в протоне взаимодействуют с этим конденсатом, выбивают кварк из пары, занимая его места. В результате кварки в протоне приобретают динамическую массу около 300 МэВ (их голая масса меньше 10 МэВ). Поскольку в протоне три кварка, то отсюда и получается масса протона 930 МэВ. Данное явление очень сложно рассчитать. Оно следует из квантовой хромодинамики, описывающей взаимодействие кварков, но из-за сложности явления решить данную задачу удалось только совсем недавно с помощью суперкомпьютера.
Резюме: 2 процента массы вещества обусловлены хиггсовским полем, а 98 - квантовой хромодинамикой.
Ещё одно замечание. Массы электрона и мюона определяются хиггсовским полем, отношение их масс равно 200. Это есть отношение констант взаимодействия электрона и мюона с хиггсовским полем. Мы не знаем происхождение значений этих констант. Нужна более глубокая теория, которая смогла бы это объяснить. Так что обнаружение бозона Хиггса - это великое достижение, но с другой стороны, число вопросов не уменьшилось, а только возросло. Ещё очень далеко до того прекрасного времени, когда физики научатся выводить все законы природы, исходя из минимального набора трёх фундаментальных констант.
Из интервью с профессором Валерием Ивановиемч Тельновым, главным научным сотрудником ИЯФ СО РАН, доктор физико-математических наук.
\\http://www.computerra.ru/interactive/724659/

10 важнейших событий в науке и IT (по версии СМИ)

4. Доказательство ABC-гипотезы


В августе 2012 года японский математик Синити Мотидзуки опубликовал серию из четырех работ, в которых заложил основы арифметической теории пространств Тейхмюллера. Главное, впрочем, не сама теория, а сфера ее применения — с ее помощью можно доказать (что Мотидзуки и делает в четвертой работе) знаменитую ABC-гипотезу, одно из самых важных утверждений в теории чисел последних лет. Первые отзывы о работе появились только сейчас, в середине сентября 2012-го года, и в них сквозит осторожный оптимизм: явных дырок в доказательстве не найдено, специалисты приступили к более детальному разбору работы. Насколько затянется такая проверка, пока сказать трудно (в общей сложности теория Мотидзуки изложена на более чем 500 страницах текста) — речь может идти о нескольких годах. Однако дело того стоит.
Теория чисел как она есть
Теория чисел — это один из древнейших разделов математики, уходящий корнями в Древний Египет, Вавилон и Грецию. В 1800 году до нашей эры вавилоняне, например, занимались изучением пифагоровых троек — троек целых чисел (a, b, c), которые могут быть сторонами прямоугольного треугольника. Это геометрическое свойство эквивалентно арифметическому утверждению о том, что a 2 + b 2 = c 2.
Простейший пример такой тройки — (3, 4, 5). Понятное дело, что если все числа в пифагоровой тройке умножить (или поделить) на некоторое целое число, то полученная тройка также будет пифагоровой, поэтому представляют интерес именно тройки, не получающиеся друг из друга в результате такой операции. Задача отыскания таких троек эквивалентна поиску так называемых примитивных троек, то есть таких троек, в которых у чисел (a, b, c) нет общих делителей (такие числа называются взаимнопростыми). Так вот, вавилоняне составляли списки таких попарно непропорциональных троек и добрались даже до 5-значных чисел. Сейчас-то известно, что есть довольно простой универсальный метод построения этих чисел, но как это делали в Вавилоне, до сих пор остается загадкой.
Поверхность Тольятти. Изображение Claudio Rocchini Магия теории чисел, среди прочего, заключается в том, что многие задачи этой теории формулируются довольно просто и даже наивно, по-школьному. При этом, для решения задач приходится привлекать методы комплексного анализа, алгебраической геометрии, теории категорий и многие другие достижения математики, казалось бы, совершенно излишние в таких «простых» задачах. Первенство по количеству обманутых таким образом людей (одна история с доказательством в прямом эфире чего стоит!), держит, разумеется Великая теорема Ферма (связанная с уже упоминавшимися пифагоровыми тройками): доказать, что для n > 2 не существует таких целых (a, b, c), что a n + b n = c n (это равенство будем называть равенством, или уравнением, Ферма). По сути теорема, которую, кстати, правильно называть гипотезой Ферма, или следствием теоремы Уайлса, утверждает, что для степеней выше второй пифагоровых троек не существует вовсе.
В этом же ключе довольно просто формулируется гипотеза Гольдбаха. На самом деле таких гипотез две — бинарная и тринарная, известные также как сильная и слабая. Первая утверждает, что всякое четное число больше двух можно представить в виде суммы двух простых чисел (то есть чисел, которые не делятся ни на какие, кроме себя и единицы, при этом единица из рассмотрения исключается), а вторая — что всякое нечетное число больше пяти представимо в виде суммы трех простых. Из справедливости бинарной гипотезы следует справедливость тринарной — достаточно в качестве одного из слагаемых взять тройку. В результате число будет представлено в виде суммы четного и тройки, а после этого к четному можно применить бинарную гипотезу.
Как бы то ни было, но сильная гипотеза Гольдбаха (сформулированная, к слову, в письме Эйлеру еще в 1742 году) до сих пор не доказана. В свою очередь тринарная гипотеза была почти доказана советским математиком Иваном Виноградовым в 1937 году. Используя нетривиальные результаты из комплексного анализа и теории рядов, он показал, что утверждение верно для всех достаточно больших N. За свое открытие он получил Сталинскую премию, однако его ученик Константин Бороздин оценил «границу Виноградова» и пришел к выводу, что она составляет число порядка 10 6 846 168. Позже она неоднократно уменьшалась, и в настоящее время лучший порядок оценки — 10 43 000,5.
Проверить все числа до этой границы, чтобы завершить доказательство, до сих пор не представляется возможным даже с использованием самых современных компьютеров. Поэтому, формально говоря, у слабой гипотезы Гольдбаха еще могут найтись исключения. Впрочем, даже если и так, то их будет не более чем конечное число, что почти так же хорошо, как если бы их и не было вовсе. Примечательно, что математики не оставляют попыток предложить такое доказательство, чтобы оно не требовало перебора. Недавно, например, математик Теренс Тао (Terence Tao) из Калифорнийского университета сделал важный шаг в этом направлении: он смог доказать, что всякое нечетное число представляется в виде суммы не более чем пяти простых чисел.
Из приведенных примеров можно сделать единственный вывод: как верно заметил в своей лекции, посвященной как раз ABC-гипотезе, специалист по алгебраической геометрии Дмитрий Орлов, основные проблемы в теории чисел возникают там, где смешиваются сложение и умножение. Оно и понятно — эти операции устроены совершенно по-разному. Скажем, с точки зрения сложения всякое натуральное число есть сумма некоторого количества единиц, поэтому натуральные числа в некотором смысле порождаются одним единственным элементом и одной операцией с ним.
С другой стороны, по умножению натуральные числа устроены иначе. Известно, что уже упоминавшиеся выше простые числа — это своего рода кирпичики, из которых можно составить любое натуральное число. Если быть точным, то всякое натуральное число может быть представлено в виде произведения простых. Некоторые из этих простых могут оказаться одинаковыми, поэтому их группируют по степеням. В окончательном варианте это утверждение, известное как основная теорема арифметики, звучит так: всякое натуральное число единственным образом представляется в виде произведения степеней простых. Например, число 24 = 2 3 *3.
При этом количество порождающих по умножению, то есть простых чисел, вообще говоря, бесконечно. Действительно, предположим противное, что число простых чисел конечно. Обозначим эти числа через p 1, …, p n и рассмотрим число p 1 *…*p n + 1. Оно больше всех p i и не делится ни на одно из них. Стало быть, по основной теореме арифметики, это число является простым. Так как предполагалось, что занумерованы все простые числа, получается противоречие, и утверждение о бесконечности количества простых чисел доказано. Понятное дело, что бесконечное количество порождающих в некотором смысле заметно осложняет дело. Но настоящие трудности начинаются тогда, когда простые числа начинают складывать (см. уже упоминавшиеся проблемы Гольдбаха).
ABC-гипотеза
Гипотеза, о которой идет речь, появилась в работах Дэвида Уильяма Массера и Джозефа Эстерле в 1985 и 1988 годах соответственно. Эстреле и Массер пытались сформулировать аналог утверждения, известного как теорема Мейсона-Стотерса. Эта теорема связана с многочленами от одной переменной и, вообще говоря, не является слишком уж сложным утверждением — в университетском курсе алгебры она фигурирует обычно в виде набора упражнений.
Кадр из мультсериала «Симпсоны» Для того чтобы сформулировать гипотезу Эстреле-Массера, потребуется понятие радикала. Радикалом числа rad (N) называется произведение всех простых множителей этого числа. Из основной теоремы арифметики вытекает, что это в точности простые множители, участвующие в разложении числа. Например rad (24) =2*3 = 6 (пример разложения 24 на простые множители см. выше). У этого числа есть несколько очевидных свойств. Например, если a и b взаимно просты, то есть не имеют общих делителей, отличных от единицы, то rad (ab) = rad (a) rad (b). Кроме этого, равенство rad (a) = a выполняется тогда и только тогда, когда a — простое. В общем, видно, что радикал представляет собой удобный инструмент для изучения произведения натуральных чисел.
Рассмотрим теперь тройки чисел (a, b, c), для которых a + b = c и все три числа взаимно просты (в данном случае не важно, попарно или в совокупности — из-за равенства это одно и то же). Эстреле и Массера интересовал радикал произведения таких трех чисел, то есть rad (abc) который по свойствам операции равен rad (a) rad (b) rad©. Математики задали вот такой, на первый взгляд не очень понятно зачем нужный вопрос: какое из чисел c и rad (abc) больше? Оказывается, однозначного ответа на этот вопрос нет. Например, возьмем тройку (2, 3, 5). Для нее 5 rad (8*9) = rad (2 3 *3 2) = 2*3 = 6.
Вместе с тем, дальнейшие исследования позволили установить, что троек первого типа в некотором смысле больше: если взять случайную тройку с условиями взаимной простоты и a + b = c, то почти всегда будет выполняться именно первое равенство. Поэтому тройки, для которых c > rad (abc) получили название исключительных. Численный эксперимент показывает, что среди всех подходящих троек, у которых c 1 существует не более конечного числа троек натуральных чисел (a, b, c) таких, что для них выполнены одновременно три условия: a + b = c; a, b и c взаимно просты и c > rad (abc) r.
Важность гипотезы
Вопрос о том, почему одни гипотезы оказываются в центре внимания математиков и становятся предметом ажиотажа, а другие — случается серьезные и фундаментальные — проходят незамеченными, это, конечно, вопрос философский. Важной гипотезу часто делает известность (например, Великая теорема Ферма), но с ABC-гипотезой все не так. Дело в том, что за время, прошедшее с появления этой гипотезы, математики свели к ней множество нерешенных задач. К ним относятся, например, гипотеза Шпиро и гипотеза Войты. Кроме этого, оказалось, что из этой гипотезы можно вывести множество фундаментальных результатов не только теории чисел, но и алгебраической геометрии — доказанная в 1983 году гипотеза Морделла и даже пресловутая Великая теорема Ферма.
С некоторыми дополнительными предположениями и почти в три строчки это делается в уже упомянутой видеолекции Дмитрия Орлова (она приводится чуть ниже), однако это доказательство достойно того, чтобы привести его полностью. Итак, сначала напомним, что сам Ферма доказал свою теорему для частного случая при n = 4. В свою очередь, n = 3 и n = 5 были разобраны Эйлером в 1770 году и Дерихле с Лежандром в 1825 году соответственно. Случай n = 6 можно свести к случаю Эйлера. Действительно, пусть мы нашли такую тройку (a, b, c), что a 6 + b 6 = c 6, тогда тройка (a 2, b 2, c 2) по свойствам степени удовлетворяет уравнению Ферма для n = 3, а Эйлер доказал, что таких троек не существует. Стало быть, нет троек и для n = 6 (вообще говоря, аналогичным образом теорему Ферма можно свести к рассматриванию только нечетных n и n = 4).
Пусть теперь n > 6. В гипотетических тройках Ферма — так мы будем называть тройку натуральных чисел, удовлетворяющих уравнению Ферма, — как и в пифагоровых тройках, имеет смысл рассматривать только взаимнопростые (a, b, c). Обозначим теперь A = a n, B = b n и С = c n. Тройка (A, B, C) уже удовлетворяет требованиям ABC-гипотезы. Положим в ней r = 2. Тогда получаем, что найдется не более конечного числа троек таких, что С > rad (ABC) 2. Для всех остальных троек C не превосходит rad (ABC) 2 = a 2 b 2 c 2 6 (так как a 6 в силу выбора n. Используя дополнительное предположение о том, что исключительных троек для r = 2 нет вообще (Орлов утверждает, что это можно доказать относительно легко), получаем Великую теорему Ферма. Впрочем, даже и без дополнительного предположения оказывается верен довольно сильный результат о том, что если тройки Ферма есть, то их не более конечного числа.
Уже по этим выкладкам понятно, что ABC-гипотеза — это крайне мощный инструмент в теории чисел. Отметим в заключение, что за время существования гипотезы предпринималось несколько попыток ее доказать. Самой известной была попытка Люсьена Шапиро в 2007 году. В доказательстве француза были обнаружены ошибки.
Работа Мотидзуки
И вот, как гром среди ясного неба, появляется работа, точнее работы, Синити Мотидзуки. В серии из четырех работ (1, 2, 3 и 4) японский математик излагает основы арифметической теории пространств Тейхмюллера. Суммарный объем работ превосходит 500 страниц. Надо сказать, что сама теория Тейхмюллера была создана в 40-е годы прошлого века и была сугубо геометрическим объектом.
Синити Мотидзуки. Фото с сайта kurims.kyoto-u.ac.jp Мотидзуки подошел к пространствам Тейхмюллера с совершенно иной стороны. В основе его подхода лежит та же идея, что когда-то привела к возникновению алгебраической геометрии. Эта идея, если сформулировать кратко, звучит так: иногда полезно обобщать. То есть зачастую удачное обобщение позволяет перенести уже имеющиеся результаты на случаи, в которых существование тех или иных теорем представлялось совершенно неочевидным. Мотидзуки на этом пути зашел так далеко, что даже специалисты затрудняются рассуждать о новой теории.
Вместе с тем, они демонстрируют осторожный оптимизм. Причин для этого несколько. Во-первых, многим специалистам подход японца кажется естественным и, скорее всего, верным по сути. Во-вторых, Мотидзуки — известный специалист, имеющий на своем счету несколько замечательных результатов. Поэтому слов на ветер, вроде, бросать не станет. Вместе с тем, никто не скрывает, что проверка теории может занять годы.
Вместо заключения
Можно предположить, что одним из самых задаваемых вопросов у простого читателя будет такой: «А зачем это нужно?» Здесь, конечно, следовало бы напомнить, что математический аппарат теории относительности появился более чем на сто лет раньше самой теории, вспомнить про квантовую механику, криптографию, в которой теория чисел применяется самым активным образом, и прочее в том же духе. Но будем честны: разве эти аргументы звучат убедительно? Разве появляется у читателя представления о глубоких взаимосвязях между разными ветвями человеческого знания, о естественных процессах, происходящих в этих самых областях? Скорее всего нет. Да и вся эта мотивация выглядит как попытка оправдать существование математики перед теми, для кого арифметические операции с двузначными числами — непосильный труд. Математике и теории чисел не нужны эти оправдания. Поэтому на вопрос «зачем?» лучше всего ответить одной-единственной картинкой.
http://news.rambler.ru/15515032/