Последнее изобретение человечества - Баррат Джеймс - Страница 47
- Предыдущая
- 47/64
- Следующая
Но вернемся на минуту в настоящее и послушаем Эндрю Рубина, старшего вице-президента Google по мобильным приложениям. Если его точка зрения победит, то Android не будет участвовать ни в каких играх с виртуальными помощниками. «Я не думаю, что ваш телефон должен быть каким-то помощником, — сказал Рубин, наглядно демонстрируя, каково это — опоздать на пароход. — Ваш телефон — это средство связи. Вы не должны общаться с телефоном; вы должны общаться с человеком на другом конце линии». Кому-то следовало мягко напомнить Рубину о голосовом приложении Voice Action, которое его команда уже протащила в систему Android. Они-то знают, что будущее — за общением с телефоном.
Несмотря на то что вы + Google обладаете интеллектом в определенном смысле выше человеческого, это не тот интеллект, который возникнет в результате интеллектуального взрыва; кроме того, этот интеллект не породит интеллектуальный взрыв. Вспомните, что для интеллектуального взрыва необходима система, которая обладала бы самосознанием и способностью к самосовершенствованию, а также имела в своем распоряжении необходимые компьютерные сверхвозможности. Такая система могла бы работать с полной сосредоточенностью круглосуточно и без выходных, атаковать задачи целой командой из собственных копий, мыслить стратегически с безумной скоростью и много чего еще. Можно предположить, что вы+Google представляете собой особую разновидность сверхразума, но ваш рост ограничен вашими возможностями и возможностями Google. Вы не в состоянии формулировать запросы для Google круглосуточно и без выходных, да и Google, экономя ваше время на поиске, заставляет напрасно его тратить, выбирая лучший ответ из множества вариантов. И даже если вы успешно работаете вместе, вы, скорее всего, не программист, a Google не умеет программировать. Так что, даже если вы заметите в своей системе недостатки, ваши попытки их исправить, вероятно, не выльются в пошаговое продвижение вперед. Нет, человеку интеллектуальный взрыв не светит.
Может ли усиление интеллекта в принципе привести к интеллектуальному взрыву? Конечно, примерно по той же схеме, что УЧИ. Представьте себе человека, элитного программиста, чей интеллект настолько усилен, что и без того значительное мастерство программирования еще возрастает — он работает быстрее, увеличивает запас знаний и настраивается на улучшения, способные повысить его общую интеллектуальную мощь. Такой гипотетический постчеловек вполне мог бы запрограммировать для себя следующий этап усиления.
Вернемся к сложности программного обеспечения. По всем признакам компьютерщики многих стран работают изо всех сил, пытаясь собрать воедино взрывчатые ингредиенты для интеллектуального взрыва. Станет ли сложность программного обеспечения непреодолимым барьером на их пути?
Представление о том, насколько сложна эта проблема, можно получить, узнав у специалистов, как скоро следует ждать появления УЧИ. На одном конце шкалы окажется директор по исследованиям Google Питер Норвиг, который, как мы уже упоминали, готов сказать лишь, что до УЧИ еще слишком далеко, чтобы об этом говорить. Тем временем коллеги Нор- вига под предводительством Рэя Курцвейла продолжают работать над созданием УЧИ.
На другом конце шкалы находится Бен Гертцель, который, как Гуд в свое время, считает, что создание УЧИ — всего лишь вопрос денег, и что он вполне может быть создан до 2020 г. Рэй Курцвейл — вероятно, лучший в истории технический прогнозист, — предсказывает появление УЧИ к 2029 г., но не ждет ИСИ раньше 2045 г. Он признает сложности на этом пути, но не жалеет энергии для убеждения окружающих в том, что ИСИ ждет долгое и безопасное путешествие в процессе рождения.
Мой неформальный опрос приблизительно двух сотен компьютерщиков на недавней конференции по УЧИ подтвердил подозрения. Ежегодная конференция по УЧИ, организованная Гертцелем, представляет собой трехдневную площадку для встречи людей, активно работающих над созданием искусственного интеллекта человеческого уровня, или таких, как я, кто просто глубоко интересуется этим вопросом. Участники конференции представляют свои работы, образцы программ, хвалятся своими успехами. Я был на конференции, которая проходила в штаб-квартире Google в Маунтин-Вью (штат Калифорния). Я задавал присутствующим вопрос, когда следует ожидать появления УЧИ, и предлагал на выбор четыре варианта: к 2030 г., к 2050 г., к 2100 г. или никогда. Голоса распределились следующим образом: 42 % считает, что УЧИ будет создан к 2030 г.; 25 % — к 2050 г.; 20 % — к 2100 г.; и 2 % — никогда. Этот опрос, проведенный среди весьма специфической группы людей, подтвердил оптимистический настрой и временные рамки более формальных исследований, одно из которых я цитировал в главе 2. Среди письменных ответов я получил несколько жалоб на то, что не включил в число вариантов даты ранее 2030 г. Мне кажется, примерно 2 % респондентов ответили бы, что УЧИ появится к 2020 г., и еще 2 % — что еще раньше. В былые времена меня поражал подобный оптимизм, но теперь я перестал удивляться. Я воспользовался советом Курцвейла и теперь тоже считаю, что информационные технологии развиваются не линейно, а по экспоненте.
Но теперь, если вам случится оказаться в зале, где все присутствующие глубоко погружены в исследования УЧИ, и захочется развлечься, объявите громко: «УЧИ никогда не будет создан! Это попросту слишком сложно!» Гертцель, к примеру, в ответ на это заявление посмотрел на меня так, как будто я вдруг начал проповедовать креационизм. Сам Гертцель, как и Виндж, был когда-то профессором математики, и о будущем ИИ он судит по истории дифференциального исчисления.
Если вы посмотрите, как математики вычисляли до Исаака Ньютона и Готфрида Лейбница, то увидите, что вычисление производной кубического многочлена занимало сотни страниц. Делалось это при помощи треугольников, подобных треугольников, хитрых диаграмм и тому подобного. Это было ужасно. Но теперь, когда у нас есть проработанная теория дифференциального исчисления, взять производную от кубического многочлена способен любой идиот-старшеклассник. Это совсем несложно.
Словно дифференциальное исчисление, развивающееся несколько столетий, исследования ИИ будут постепенно продвигаться, пока продолжающаяся практика не приведет к открытию новых теоретических правил, которые позволят специалистам формализовать значительную часть работы; с этого момента движение к УЧИ пойдет проще и быстрее.
Ньютон и Лейбниц получили инструменты, такие как правило сложения, правило умножения, правило дифференцирования сложной функции, то есть все те базовые правила, которые мы сегодня изучаем в начальном курсе дифференциального исчисления, — продолжал он. — Пока этих правил не было, каждую задачу такого рода приходилось решать с нуля, как будто на пустом месте, а это гораздо сложнее. Так что математика ИИ у нас сегодня на уровне математики дифференциального исчисления, созданного Ньютоном и Лейбницем, и доказательство даже самых простых вещей, касающихся ИИ, требует безумного количества хитроумных вычислений. Но со временем у нас появится удобная теория разума, точно так же как когда-то появилась удобная теория дифференциального исчисления.
Но отсутствие удобной теории принципиально ничего не меняет.
Гертцель говорит:
Возможно, нам потребуется научный прорыв в строгой теории интеллекта человеческого уровня, прежде чем мы сможем сконструировать реальную систему УЧИ. Но пока я подозреваю, что это не обязательно. Я считаю, что можно, по идее, создать мощную систему УЧИ, двигаясь пошагово от нынешнего уровня наших знаний и занимаясь практическим конструированием без полного и строгого понимания теории разума.
Мы уже говорили, что проект Гертцеля OpenCog организует аппаратное и программное обеспечение в так называемую «когнитивную архитектуру», призванную моделировать деятельность мозга. И эта архитектура может в один прекрасный момент сделаться мощной и, возможно, непредсказуемой вещью. Где-то на пути развития, еще до создания всеобъемлющей теории человеческого разума, утверждает Гертцель, OpenCog может достичь уровня УЧИ.
- Предыдущая
- 47/64
- Следующая