Часть первая

Часть вторая

2.0

читать дальше

Комментарии
24.01.2017 в 11:32

История с "прозвоном" 300 нейронов, к сожалению, сильно упрощена. Активация реального нейрона определяется не только "весом" входных сигналов, но и местами поступления входных сигналов (которыми может выступать буквальная любая точка поверхности нейрона), а так же задействованными нейромедиаторами (сигналы одной "мощности" через один и тот же синапс, но разными нейромедиаторами вызывают разный отклик у нейрона). Ещё у всех нейронов есть собственные "генераторы тактовой частоты" (с регулируемой частотой), которые обеспечивают дополнительный входной сигнал "изнутри" нейрона. Конечно не трудно смоделировать то, что нейрон может передавать "входные" и "выходные сигналы" по одним и тем же синапсам, но вот то что он может формировать новые синапсы (и входные и выходные) в любой точке своей поверхности в ответ на внешнюю стимуляцию, а "бесполезные" синапсы со временем отмирают - смоделировать в разы труднее. Ну и наконец да - активационные "веса" нейронов непрерывно меняются под влиянием биологических процессов, происходящих в самом нейроне, который использует получаемые нейромидиаторы как что-то вроде витаминов - не получая их нейрон физически гибнет, и потому, если оказывается в ситуации "голода" - старается "добиться" их получения, посылая сигналы другим нейронам.
24.01.2017 в 20:19

Болотный Пёс, это очень хороший комментарий.

Я думаю, тут важно различать техническую и логическую сложность. Да, в жизни все устроено по другому. Да, там химические и физические процессы на грани нашего понимания. Да, никто до конца не знает почему все работает именно так. Но это как сравнивать ламповые диоды с полупроводниками - они очень сложны и работают по разному, однако же системы которые мы с ними строим практически одинаковы.

Является ли техническая сложность достаточным требованием для появления разума? Да, является, потому что работает же.
Является ли она необходимым требованием? Можно ли нам сделать проще на другой элементной базе?
Мы не знаем.
24.01.2017 в 22:46

Ну, для начала я не оспариваю саму идею нейронных сетей как аналога процессов в ЦНС животных. Моя претензия только к тому, что сложность даже самой простой ЦНС, вроде 300-нейронной ЦНС червя, на порядки выше сложности модели, которую ты привела в пример. Я искренне верую в то, что "призрак в машине" это сложная, но теоретически решаемая задача. Но я не верю в "прозвон" ЦНС. В современных моделях аналогом нейрона выступает нечто вроде небольшой микросхемы, в то время как на самом деле его аналогом должен выступать как минимум полноценный процессор.

Мне кажется вполне очевидным, что "ненужные" сложности в реализации реального нейрона (внутренняя тактовая частота, физиологическая потребность в нейромедиаторах, способность отращивать новые синапсы) являются очень важными частями механизма обучения нейрона, которые мы, конечно, можем пытаться воспроизвести на "другой элементальной базе", но которые несомненно будут потеряны при попытках "прозвонить" нервную систему. Ведь главная фишка любой нейронной сети (как электронной, так и органической) в том, что сигнал на выходе это f(X,Y), где X это входные сигналы, а Y это предыдущее состояние нейронной сети, которое мы, на данный момент, никак не можем "считать" с реальных нейронов (даже с одного, а уж тем более со всех одновременно).
25.01.2017 в 04:26

>В современных моделях аналогом нейрона выступает нечто вроде небольшой микросхемы, в то время как на самом деле его аналогом должен выступать как минимум полноценный процессор.

Это вопрос мощности, вон у приставок нинтендо даже железо с багами эмулируют.
Другое дело, конечно, нужно ли так эмулировать :)

>Ведь главная фишка любой нейронной сети (как электронной, так и органической) в том, что сигнал на выходе это f(X,Y), где X это входные сигналы, а Y это предыдущее состояние нейронной сети, которое мы, на данный момент, никак не можем "считать" с реальных нейронов (даже с одного, а уж тем более со всех одновременно).

Нейронные сети уже давно нелинейны, RNN (рекурсивные нейронные сети) это проза жизни, и подвидов рекурсивных сетей с внутренними состояниями очень много, начиная от уже классической LSTM (long short term memory, используется для генерации данных на плохо формализуемых наборах, например генерации текстов) и заканчивая редкими зверями вроде growing neural forest, способными менять свою топологию на лету.

Ок, я перечитала предложение и теперь не уверена что понимаю его правильно. Если это аргумент против того что мы можем перенести состояние отдельно взятого мозга сохранив личность и память - так никто пока за это и не агитирует!
25.01.2017 в 10:21

Но ведь "ghost in the shell" это и есть "перенос состояния отдельно взятого мозга с сохранением личности и памяти".

Я думаю наши исскуственные нейронные сети вплонтую подошли к тому чтобы действовать по аналогии с реальными нейронными сетями, но при этом инженеры воспроизводят именно общие принципы работы, подсмотренные у ЦНС, а не сами ЦНС.