Эпидемии, искусственный разум, нанотехнологии, коллайдер: что ещё может убить человечество?

We use cookies. Read the Privacy and Cookie Policy

Эпидемии, искусственный разум, нанотехнологии, коллайдер: что ещё может убить человечество?

Именно в последние десятилетия наглядно проявилась тенденция настороженного отношения мировой общественности к развитию новых технологий. Радость второй половины 1950-х – первой половины 1970-х годов по поводу всепобеждающего научно-технического прогресса сменилась определённым унынием: технологии, конечно же, развиваются, но стал ли человек более счастлив от этого, стала ли его жизнь более безопасной?

Сегодня произошёл ещё один перекос в той части информационного пространства, где речь идёт о новых изобретениях, научно-технических разработках и прочих новациях. На первый взгляд, эта новация не очень заметна, но она, тем не менее, очевидна. Раньше, скажем, 30–50 лет назад, не говоря о более ранних периодах, поставщиками новостей из мира науки, как правило, были те, кто к этим новостям имел самое непосредственное отношение – изобретатели, новаторы, учёные. Сегодня в числе ньюс-мейкеров мы гораздо чаще видим менеджеров, управленцев от науки, в лучшем случае – медийно раскрученных фигур, людей популярных и известных. Причём их известность и популярность подчас имеют весьма малое отношение к сути того, что они говорят. И это вполне понятно. Иначе и быть не может, если исходить из того, как устроено современное общество: подавляющее большинство прислушивается к мнению только известных персонажей. Если некто скажет нечто чрезвычайно нужное и важное едва ли не для каждого человека, его, скорее всего, просто не услышат. И мотивация этого нежелания слышать будет простой: «Да кто он такой? Я его не знаю!» То есть важно не ЧТО говорится, а КТО это говорит.

Эта черта (недоверчивость и малое желание воспринимать неизвестную информацию от неизвестного человека) людям, в общем-то, была свойственна во все времена. Другой вопрос, что современное информационное общество эту черту человеческой психологии всячески культивирует. «Массы никогда не знали жажды истины. Они требуют иллюзий, без которых они не могут жить»: если при жизни Зигмунда Фрейда (Sigismund Schlomo Freud; 06.05.1856 – 23.09.1939) многие воспринимали эту его сентенцию как занятный парадокс, то сегодня она, можно сказать, превратилась в аксиому.

И вот наглядный пример.

В конце мая 2015 год бывший глава компании «Microsoft» Билл Гейтс в телевизионном интервью медиаизданию «Vox» поделился с человечеством своими опасениями относительно грозящих ему опасностей («Наиболее предсказуемые катастрофы в истории человечества», «The most predictable disaster in the history of the human race»). За эпохальное интервью, как и водится, ухватились едва ли не все мировые СМИ. К примеру, орган Правительства Российской Федерации – «Российская газета» – 28 мая 2015 года опубликовала краткую выжимку из высказываний Гейтса с броским заголовком: «Билл Гейтс предрёк гибель 33 млн человек от вируса менее чем за год». Статья в «РГ» была небольшой, что косвенным образом подтверждало содержательную ценность озвученной Гейтсом информации.

Что же предрекал Билл Гейтс? А говорил он, в общем-то, банальные вещи. Что та или иная инфекционная эпидемия сегодня представляют собой одну из наиболее страшных угроз для человечества. Он напомнил об «испанке», которая в 1918–1919 годах унесла, по разным оценкам, от 20 до 40 миллионов человеческих жизней по всему миру, заметив, что и сегодня мы «не знаем, откуда взялась эта “испанка”. Болезнь так назвали, поскольку первой о ней сообщила испанская пресса». Гейтс, кроме того, заявил, что сегодня, по сравнению с 1918 годом, люди в среднем в 50 раз чаще пересекают границы. Стало быть, тот или иной вирус будет распространяться много быстрее. Гейтс рассказал, что он вместе со своими коллегами попытался создать алгоритмическую модель с тем, чтобы понять, как именно и сколь быстро в современном мире может распространиться та или иная пандемия. Для создания такой модели Гейтса подтолкнуло участие его благотворительного фонда в искоренении полиомиелита. И вот когда созданная алгоритмическая модель была прокатана в качестве тестирования именно на полиомиелите (то есть как бы полиомиелит мог бы распространиться сегодня в мире, если бы это был совершенно неизвестный для медицины вирус), результат оказался, пишет «Vox», шокирующим даже для Гейтса: «В течение 60 дней вирус распространился бы во всех крупных городах земного шара. Такой скорости распространения не было даже у “испанки”».

Кроме того, Билл Гейтс рассказал, что он создал специальную исследовательскую группу, которая смоделировала возможную инфекционную катастрофу. Прогноз получился следующим: при неблагоприятном развитии событий уже в первые сто дней некий новый, но активный вирус способен убить 770 тысяч человек, а за 250 дней его жертвами могут стать до 33 миллионов жителей планеты.

Весь остальной объём интервью Билла Гейтса (а он составит примерно ещё 20 таких абзацев, как два предыдущих) – это общие рассуждения, ссылки на исследования тех или иных экспертов и разного рода цитаты. Примечательно и то, что Гейтс практически ничего не сказал о причинах возникновения разнообразных новых вирусов последних десятилетий (типа пресловутой «лихорадки Эбола»), а, самое главное, что же делать для предотвращения их масштабного распространения.

Надо отметить, что Билл Гейтс в последнее время достаточно часто становился ньюс-мейкером. Так, 28 января 2015 года он принял участие в онлайн-чате с пользователями популярного американского социального новостного сайта reddit.com. В ходе ответов на вопросы и обсуждения заявленных тем Гейтс высказал обеспокоенность очередной глобальной угрозой человечеству: новая напасть происходит, по его мнению, от развития искусственного интеллекта.

Естественно, что это событие мигом вошло в число самых популярных новостей во всём мире. Всё та же «Российская газета» уже на следующий день после участия Билла Гейтса в онлайн-чате поспешила шокировать аудиторию своих читателей небольшой заметкой с пугающим заголовком «Билл Гейтс предупредил об угрозе искусственного интеллекта». Из достаточного объёмного по содержанию онлайн-чата были выбраны всего два момента. Автор «РГ» привёл две цитаты из высказываний Билла Гейтса. Цитата первая: «Я отношу себя к тем, кого беспокоят перспективы развития супер-интеллекта. Поначалу машины будут выполнять за людей большую часть работы, но не получат супер-интеллекта. Если сможем правильно управлять этим процессом, будет хорошо. Но спустя несколько десятилетий искусственный интеллект может стать настолько развитым, что превратится в повод для беспокойства. Я не понимаю, почему некоторые люди не обращают внимания на эту проблему».

Второй момент, на который обратила внимание своих читателей «Российская газета», – рассказ Гейтса о проекте «Персональный агент», над которым он сейчас работает. Вторая цитата: «“Он будет помнить всё и поможет вам вернуться и найти что-либо, поможет выбрать вещи, на которые нужно обратить внимание”, – рассказал глава Microsoft. Проект будет кроссплатформенным и появится в голосовом помощнике Cortana». Этим и завершалась публикация в «РГ».

Примечательный отбор новостей, цитат и примечательный финал статьи! Почему Гейтс считает, что искусственный интеллект может быть опасным для человечества, в чём эта опасность может заключаться – об этом более ничего в статье «Российской газеты» не говорилось. Зато читателей проинформировали об очередной затее Гейтса, предназначенной для идиотов – программном продукте под названием «Персональный агент», который будет за вас помнить всё, что вы забыли и помогать найти то, что вы потеряли.

Причём сложно отделаться от впечатления, что мы имеем дело в определённого рода информационной кампанией. Ведь примерно в одно и то же время опасностью искусственного интеллекта поспешили поделиться с общественностью не только Билл Гейтс, но также основатель частной космической компании «SpaceX» и автомобильного проекта «Tesla» Илон Маск, а также всемирно известный британский физик-теоретик Стивен Хокинг.

2 декабря 2014 года Стивен Хокинг дал интервью телекомпании «BBC». В публикации русской службы «BBC» («Хокинг: искусственный интеллект – угроза человечеству») он откровенно сказал, что появление полноценного искусственного интеллекта может стать концом человеческой расы. Опасность, по мнению Хокинга, заключается не в искусственном интеллекте как таковом, вовсе нет. Более того, примитивные формы искусственного интеллекта, уже существующие на сегодняшний день, доказали свою полезность, но, по мнению Хокинга, человечество вполне может создать что-то такое, что намного превзойдёт своего создателя: «Такой разум возьмёт инициативу на себя и станет сам себя совершенствовать со всё возрастающей скоростью. Возможности людей ограничены слишком медленной эволюцией, мы не сможем тягаться со скоростью машин и проиграем». То, что говорил Хокинг – явно не ново. Тревожные сценарии такого варианта развития событий многократно рассматривались с мировой литературе и мировом кинематографе XX и начала XXI века. Обсуждалась эта тема и в научном сообществе.

Конечно, с таким прогнозом согласны далеко не все учёные. К примеру, создатель веб-приложения «Cleverbot» Ролло Карпентер, мнение которого также приводится на русскоязычном сайте «BBC», уверен в том, что люди останутся хозяевами создаваемых ими технологий ещё очень и очень долгое время, а эти самые новые технологии помогут человечеству разрешить многие мировые проблемы. Карпентер придерживается той точки зрения, что искусственный интеллект всё же в стратегическом плане окажется позитивной силой, опасаться его, во всяком случае, пока, нет никаких резонов. Говоря об устройствах с искусственным интеллектом, Карпентер заметил следующее: «Мы не можем с уверенностью сказать, что произойдёт, когда машины превзойдут нас интеллектом. Следовательно, мы не можем предсказать, и как они поведут себя: станут ли они нам помогать, нас игнорировать или же рано или поздно нас уничтожат».

Угрозу искусственного интеллекта Илон Маск разбивает как бы на два этапа. На первом этапе, полагает создатель космической компании «SpaceX», машины, обученные выполнять грязную и тяжёлую физическую работу, запросто могут лишить миллионы людей рабочих мест. Это – так сказать, краткосрочная перспектива. А вот в более отдалённом будущем, полагает Маск, машины могут стать основной угрозой существованию людей как вида живых существ.

Разброс мнений, как мы видим, достаточно широк, но у меня, повторюсь, есть опасение, что практически одномоментные заявления на тему опасности искусственного интеллекта столь широко известных персонажей, как Хокинг, Гейтс, Маск, Карпентер и в самом деле создаёт впечатление начала широкомасштабной кампании по изменению общественного мнения. В самом деле, в строгом соответствии с технологиями «окна Овертона» эти первые информационные всполохи через весьма непродолжительное время вполне могут завершиться тем, что правительства ведущих стран, идя навстречу пожеланиям избирателей и широких народных масс, запретят (или, как минимум, на время приостановят) все опыты по созданию искусственного интеллекта. На официальном, конечно же, уровне. Однако неофициально, в закрытых правительственных и частных лабораториях, такие работы будут, разумеется, продолжены. Только все эти «широкие народные массы» знать об этом ничего не будут. А когда узнают, то, возможно, особой радости им это уже не принесёт.

Впрочем, и это ещё не всё: человечеству угрожает не только искусственный интеллект и «восстание машин». Одной из научно-технических отраслей, которая начала бурными темпами развиваться в последние годы, и опасность которой уже разглядели некоторые особо пытливые наблюдатели – пресловутые нанотехнологии.

Оптимистичные поначалу перспективы слияния человечества с невидимыми нанороботами с целью создания разумной и гармоничной окружающей среды, как мы видим, также постепенно сходят на нет. Они уступают место опасениям относительно того, что развитие науки в этом направлении даже на ранней стадии (в течение первых 5—10 лет, то есть в пределах 2010–2020 годов) вполне может привести к уничтожению сложившихся форм биологической жизни на нашей планете.

Например, в книге Вадима Панина «2012 год» приводится такой тревожный факт. В объединение «SVTC» («Silicon Valley Toxics Coalition»), расположенное в Силиконовой долине в Калифорнии, входят более 100 компаний, которые занимаются исследованиями в области нанотехнологий. В начале апреля 2008 года «SVTC» опубликовало отчёт, в котором собраны все факты наблюдений за последствиями проникновения и перемещения нанотрубок внутри живых клеток: «Использование новых технологий в Силиконовой долине и за её пределами» («Regulating Emerging Technologies in Silicon Valley and Beyond»).

ДОСЬЕ

Нанотрубка – базовая (каркасная) молекула, которая представляет собой полый цилиндр, образованный свёрнутым листом толщиной всего в один атом углерода.

Нанотрубки, как считается, представляют собой уникальнейшее сырьё для развития технологий будущего. Новые материалы, разработанные на их основе, обладают невиданным запасом прочности: они не плавятся при температуре до 3500 градусов по Цельсию, не деформируются при давлении в 6000 атмосфер, а при испытании на разрыв оказываются крепче высокоуглеродистой стали в 60 раз.

Широкое практическое применение таких нанотрубок сегодня ограничивается, по сути, только их высокой себестоимостью – порядка 5–6 евро за один грамм. Впрочем, снижение их себестоимости – вопрос времени.

В упомянутом выше отчёте «SVTC» как раз и было рассказано об опытах по взаимодействию нанотрубок с живыми организмами. В ходе одного из экспериментов учёные ввели нанотрубки в образцы клеток человеческого организма, с тем чтобы проверить их на предмет жизнеспособности. Опыт удался! В ходе его реализации выяснилось, что первой реакцией клеток живого организма было сопротивление инородному вторжению: они пытались поглощать нанотрубки лизосомами, которые как раз и отвечают за выведение инородных частиц из живого организма.

Однако сопротивление было достаточно быстро подавлено: против нанотрубок лизосомы оказались бессильны, поскольку трубки легко проникали через цитоплазму в клеточное ядро. Через три дня после начала эксперимента все образцы живых клеток организма человека погибли.

На одной из пресс-конференций директор «SVTC» по экологии Шейла Дэвис (Sheila Davis) продемонстрировала наглядный опыт, поместив в прозрачную стеклянную ёмкость с дистиллированной водой шесть пар мужских носков, при изготовлении которых были использованы наночастицы серебра с целью предотвращения развития бактерий и образования неприятного запаха. Некоторое время, пока Дэвис отвечала на вопросы журналистов, ёмкость с носками встряхивалась так, как это происходит в стиральной машине. После чего из ёмкости был взят анализ воды, в которой содержались смытые с ткани носков наночастицы серебра.

По словам Дэвис, при попадании этой воды в аквариум все рыбы и моллюски в нём вскоре станут бесплодными, а многие из них попросту умрут. Почему? А потому, что эти наночастицы серебра, благодаря своим микроскопическим размерам свободно проникающие сквозь мембраны клеток, вызывают не только нарушение репродуктивных функций, но и рак мозга.

Британский химик, лауреат Нобелевской премии 1996 года по химии за достижения в области изучения наночастиц Гарольд Крото (Harold (Harry) Walter Kroto; родился в 1939 году), узнав о результатах подобных экспериментов, в 2009 году сделал заявление, в котором признал, что современная наука недооценивает все возможные последствия и риски, связанные с неконтролируемым развитием нанотехнологий.

Опасения вызывает и деятельность Большого адронного коллайдера, который, как известно, работает в крупнейшей в мире лаборатории физики высоких энергий «CERN» («Европейский совет по ядерным исследованиям»; «Conseil Europ?en pour la Recherche Nucl?aire»; располагается близ Женевы, на границе Швейцарии и Франции). В начале июня 2011 года учёным в ходе эксперимента на коллайдере удалось в течение 16 минут удерживать атомы антиматерии, о чём, как и водится, сообщило большинство мировых средств массовой информации. Но большой радости это достижение не вызвало. Понятно, почему.

Ещё с того момента, когда об опытах на БАКе начали рассказывать в средствах массовой информации, стали раздаваться голоса о крайней опасности этих экспериментов. Суть была проста: как можно проводить опыты с попытками синтезировать и удержать антиматерию, если вы, учёные, даже не знаете толком, как всё это работает? Да и вообще все эти опыты с антиматерией – вы уверены, что, получив её, вы не спровоцируете колоссальный взрыв, который поглотит не только Большой адронный коллайдер, тех, кто в нём работает, но и то, где этот коллайдер находится – Землю?

Научное сообщество такие опасения снисходительно отвергало. А наиболее настойчивым представителям оппозиционной мысли заявлялось, что они – просто-напросто дилетанты, непрофессионалы и маргиналы. А раз так, то как они могут судить о том, в чём они совершенно не разбираются?

С одной стороны – вроде бы, дельное возражение. С другой стороны, попытки с помощью Большого адронного коллайдера обнаружить, в том числе, и элементарную частицу также натыкалось на возражения и дискуссионные соображения от представителей самых разных интеллектуальных кругов, начиная с богословов и заканчивая конспирологами. Они, обращаясь к учёным, говорили так: современная наука, если не вдаваться в излишние детали, стоит на позиции, что Вселенная бесконечна. Но принцип устройства природы подразумевает наличие соответствия, симметрии: что вверху, то и внизу. Иначе говоря, если Вселенная (то, что вверху) бесконечна, то столь же бесконечным должно быть и то, что внизу, то есть – строение вещества. Иначе говоря, вы никогда не найдёте пресловутую элементарную частицу: с открытием очередного «бозона Хиггса» вы неизбежно будете приходить к пониманию, что есть нечто, из чего, в свою очередь, эта частица и состоит.

Странно, что такие простые, в общем-то, мысли, не приходили в голову тех, кто задумывал и реализовывал столь масштабный проект, каковым является Большой адронный коллайдер. Или – приходили? Но тогда что же на самом деле может скрываться под вывеской Большого адронного коллайдера?

Арабская мудрость гласит: «В Аллаха веруй, а верблюда привязывай». Во что веруют создатели коллайдеров, небезопасных нанотехнологий и прочих «чудес света» современности – сложно сказать определённо. Как сложно определённо утверждать и то, привязывают ли они своего «верблюда»…

Данный текст является ознакомительным фрагментом.