Часть третья: побег из китайской комнаты.В прошлый раз мы обсуждали историю нейронных сетей и основные принципы их работы, а также то, почему они не очень похожи на настоящий интеллект.
Время поговорить о настоящем интеллекте.
Предположим, мы хотим сделать настоящий, разумный ИИ, как ГЛАДОС в компьютерной игре “Портал Два”.
Первая проблема в том, что даже на сегодняшний день мы не знаем определения разума. Мы не знаем что это, как оно работает и даже не уверены есть ли оно вообще. Это настолько фундаментальная проблема что в нейрофизиологии она называется “сложной”, в том плане что все остальные проблемы рядом с ними выглядят простыми и их можно хоть как то решить, обложившись неограниченным времени и ресурсами.
Проблему разума с наскоку решить нельзя.Проблему разума с наскоку решить нельзя.
Три логических эксперимента раскрывают сложность Сложной Проблемы очень хорошо, и первый из них это всем уже надоевшая до усрачки китайская комната.
Прежде чем говорить о китайской комнате, упомянем проблему корабля Тессея. (Внимание, чтение третьей и четвертой частей этого опус магнум может вызвать легкое ощущение экзистенциального холодка в области спины)
1.
Тессей плывет на корабле. Корабль дает течь, и его чинят. Рано или поздно в корабле не останется ни одной старой доски.
Или вот, железный дровосек отправляется в лес и заколдованный ведьмой топор отрубает ему ногу. Дровосек меняет ногу на железную, но топор отрубает руку. Так повторяется, когда топор наконец не отрубает ему голову.
Но ладно, черт с ним с кораблем.
2.
Предположим, мы заперты в комнате и нам подают листки бумаги с китайскими иероглифами. У нас есть большая библиотека книг, которая описывает как формируются правила китайской грамматики. Книги не объясняют что означают иероглифы, но только что нужно написать в ответ, чтобы этот ответ был осмысленным.
Для стороннего наблюдателя будет казаться что он разговаривает с китайцем и ведет осмысленный диалог, даже если мы сами при этом не понимаем ничего из того что мы делаем.
Это очень старый парадокс и он изначально применялся к человеческому сознанию чтобы показать как тяжело связать результат когнитивных процессов (логос) с механической основой мышления (мозг). Сейчас можно заметить что китайская комната довольно хорошо ложится на машинные переводы и речь - понимает ли гугл что значит китайский, когда он переводит с китайского на русский?
- Но знания не взялись в китайской комнате сами по себе - скажет нам наблюдатель - разумный человек внес их в комнату и комната является продолжением его сознания и опыта!
Хорошо, мы пока примем это объяснение.
3.
Допустим, мы решили сделать манекен, который будет изображать человека.
Если разговаривать с манекеном, то он будет отвечать и делать это правдоподобно. Он будет изображать человеческие эмоции, плакать, смеяться, реагировать на боль и кричать если его уколоть булавкой, словом он будет полностью идентичен настоящему человеку за одним исключением - манекен не живой, а всего лишь работа сложных механизмов.
Философский зомби (а именно так называется наш манекен) это попытка дать ответ на вопрос о феномене ощущения и наблюдателя - а именно, возможны ли физиологические реакции на боль без феномена ощущения (квалии) самой боли?
Философский зомби это тот водораздел где все исследователи интеллекта делятся на два больших лагеря - лагеря эмерджентов, тех, кто считают разум некой неуловимой субстанцией, возникающей такой сложной системе как человеческий мозг и фундаментально разделяющей сознание от бессознательного (назовем ее гнозисом от греческого “знание”), и второго лагеря, который принципиально отрицает существование гнозиса, и считает всех нас философскими зомби, а сознание всего лишь сложной иллюзией, шумом в мозговых проводах.
Какой из лагерей прав?
Мы не знаем. Не исключено что оба, а возможно и никакой.
Итак, мы хотим сделать ИИ. ИИ будет читать текст, который мы наберем ему с клавиатуры и выдавать ответ.
ИИ обучен на огромных массивах текстов. Мы знаем из прошлых глав что весьма условно мозг можно считать большой машиной по трансформации входных данных в выходные, и что для людей входными данными будут зрение и слух, а выходными речь и положение конечностей в пространстве.
Наш ИИ будет очень похож, но значительно, значительно проще. ИИ будет трансформировать текст в текст. Мы так же знаем что на достаточно больших объемах текстов ответы ИИ будет неотличимы от ответов человека с определенной степенью погрешности, к примеру в 95%.
Можно ли считать такой ИИ разумным?
На этот вопрос есть четыре возможных ответа.
а) ИИ обладает гнозисом как скрытым аспектом его сложной структуры.
б) ИИ не обладает ничем и ничем не умнее дрессированного попугая.
в) Вопрос бессмысленный, а несчасный ИИ не сможет доказать что он обладает сознанием в той же степени что и один человек не сможет доказать это другому (привет Тьюринг)
г) Вопрос бессмысленный, потому что само утверждение о феномене сознания бессмысленно.
Ладно, получилась довольно азбучная глава про азбучные вещи, но будем надеяться следующая будет поинтереснее.
3/4