Проблема искусственного интеллекта

В ответах на вопрос – можно ли создать искусственный интеллект? – присутствует две противоположные точки зрения: «да» и «нет». Причем каждая из сторон вроде бы с убедительными аргументами на руках доказывает свою правоту.

Однако, прежде чем говорить о конструировании искусственного интеллекта, необходимо как минимум выяснить, что понимают под этим термином ученые. Существует немало определений этого понятия.

Так, в одном из них искусственным интеллектом (ИИ) называется «условное обозначение кибернетических систем, моделирующих некоторые стороны интеллектуальной деятельности человека – логическое, аналитическое мышление». То есть, иначе говоря, искусственный интеллект – это рукотворная модель человеческого мозга, способного к мыслительной деятельности. А, учитывая многочисленные факты из истории науки и техники, когда в течение очень короткого времени появлялись изобретения, о которых люди лишь мечтали (например, телевидение, компьютеры, Интернет, мобильная связь и т. д.), можно предположить, что появление искусственного интеллекта тоже вполне вероятно.

Искусственный интеллект – это рукотворная модель человеческого мозга, способного к мыслительной деятельности

Косвенно о возможности создания ИИ говорит и тот факт, что порой практика опровергает предположения выдающихся людей. В 1933 году знаменитый английский физик Эрнст Резерфорд заявил, что никогда не удастся извлечь энергию из атома: «Любой, кто искал источник энергии в трансформации атомов, говорил вздор». В те времена требовались дни и недели работы, чтобы расщепить небольшое количество ядер. А спустя чуть больше десяти лет взрыв атомной бомбы опроверг прогнозы великого Резерфорда.

Вот тут-то и возникает достаточно серьезная проблема: а вдруг искусственный интеллект в какой-то момент по мыслительной мощи превзойдет человека, а затем, используя свои невероятные способности, начнет действовать ему в ущерб?

Следует сразу заметить, что этот вопрос начал волновать умы многих людей еще в прошлом веке. И первыми задали его в своих произведениях фантасты. «Эта проблема стала одной из самых популярных в мире научной фантастики в 1920–1930-х годах, когда было написано множество рассказов, темой которых являлись роботы, восставшие и уничтожившие своих создателей», – писал знаменитый американский ученый и писатель Айзек Азимов.

Правда, в проблеме ИИ есть один существенный момент: определение степени интеллектуальности созданного устройства. То есть выяснение, действительно ли оно обладает искусственным интеллектом, или является лишь высокоскоростным компьютером, выполняющим определенные запрограммированные операции?

Чтобы ответить на этот вопрос, ученые придумали немало различных тестов, из которых самым известным является тест Тьюринга: «Компьютер можно считать разумным, если он способен заставить нас поверить, что мы имеем дело не с машиной, а с человеком». Впрочем, если быть более точным, то тест Тьюринга – это больше тест на успешную имитацию интеллекта, чем на сам интеллект.

А теперь, возвращаясь к теме нашей статьи, предположим, что устройство прошло испытание на наличие искусственного интеллекта. Иначе говоря, оно в состоянии ставить перед собой определенные задачи и решать их. А это значит, что в какой-то момент у этого устройства могут появиться цели, которые противоречат человеческим устремлениям. То есть не исключено, что ИИ начнет эволюционировать в сторону такого состояния, в котором у него появится склонность к достижению своих конкретных целей, абсолютно неизвестных человеку. Таким образом, саморазвивающийся искусственный интеллект в какой-то момент может стать реальной угрозой для человечества.

Конечно, чтобы ИИ развился до состояния, при котором он начнет быстро эволюционировать, то есть самосовершенствоваться, ему необходимо достичь некоего критического уровня. Но для этого как минимум требуется сверхмощный компьютер и соответствующее к нему программное обеспечение. Однако это уже не столь фантастическая цель, поскольку в настоящее время существуют компьютеры мощностью порядка 1 петафлопа, то есть способные производить в одну секунду 1000 триллионов операций. И этой мощности, по некоторым оценкам, должно хватить, чтобы имитировать работу человеческого мозга. А значит, на этой платформе можно создать ИИ.

Более того, согласно закону Мура, объем компьютерной памяти удваивается примерно каждые два года. И этому правилу подчиняется каждый показатель производительности компьютера: размер микросхем, скорость процессора и т. д. Опираясь на эти данные, легко предположить, что в ближайшие десять лет мощность компьютеров вырастет приблизительно в 100 раз, или до 1 терафлопа. Соответственно, потребуется всего 1000 таких устройств, чтобы получить 1 петафлоп памяти, необходимый для создания ИИ.

Если же рассматривать ИИ с позиций возможного риска для человечества, то наиболее опасным представляется сценарий, когда мощность искусственного интеллекта начнет очень быстро возрастать. И для этого он со временем сможет сформировать собственную программу, с помощью которой будет постоянно самосовершенствоваться. В результате постепенного развития он сможет превзойти показатели человеческого мозга в тысячи и миллионы раз. Более того, со временем ИИ сможет также упростить свою конструкцию при одновременном увеличении мощности.

А этот временной промежуток может оказаться весьма коротким. Ведь в науке и технике известно немало примеров, когда открытие нового принципа или явления приводило к тому, что оно внедрялось в течение нескольких лет. Например, от открытия цепной реакции урана до создания бомбы прошло всего шесть лет.

Безусловно, сильный искусственный интеллект позволит решать задачи практически любой сложности. К тому же из множества возможных вариантов ИИ будет сам находить наиболее перспективные стратегии в самых разных областях человеческой деятельности: бизнесе, строительстве, транспорте и т. д. Это значит, что его можно будет использовать для достижения любых целей во внешнем мире. В том числе и военных, поскольку ИИ станет абсолютным оружием, которое может привести мир к глобальной катастрофе.

Таким образом, изобретение искусственного интеллекта может принести человечеству как множество благ, так и немало проблем. Так, для сверхмощного ИИ не составит особого труда с помощью созданных им же самим программ взять под собственный контроль не только отдельные персональные компьютеры, но и весь Интернет.

Не исключено, что затем искусственный интеллект попытается обрести власть над миром. Для этого он может воспользоваться уже существующими системами управления в различных сферах общества: в экономике, политике, законодательстве и т. д. Мощный ИИ без труда сможет ввести в заблуждение человека, а тот этого не заметит и не поймет, что им манипулируют.

Программисты уже сочинили один такой катастрофический сценарий. Заключается он в том, что ИИ начинает с максимальной точностью вычислять число «пи». И чтобы сделать это, искусственный интеллект должен будет до бесконечности расширить свои ресурсы. Для этого ему потребуется переработать все вещество Земли, чтобы создать компьютер с неограниченными вычислительными возможностями. Кроме того, ИИ придется устранить все те факторы, которые в состоянии ему помешать осуществить задуманное. В первую очередь он, скорее всего, уничтожит тех программистов, которые могут его отключить, а затем – всех остальных людей.

Изложенный выше сценарий, безусловно, ужасен, но он вероятен. Поэтому человечество, чтобы сохранить себя как цивилизацию, должно взять под самый серьезный контроль любые исследования, связанные с разработкой искусственного интеллекта.