Тема начата из-за моего спора с Пилумом. А разногласия состоят в том, что нейронные сети - это скорее такой компьютер, а не "научная модель" мозга (или его какой-то маленькой части).
Вы, Брайт, пишите, что хорошо известно, как мозг обрабатывает инфу. - Я думаю, что Вы сильно преувеличиваете. А то, что "этот процесс довольно успешно моделируется с помощью искусственных нейронных сетей" - это тоже не верно в смысле понимания того, как это делает мозг. С помощью обычного компьютера тоже можно смоделировать многие процессы, происходящие в мозгу. - Вы получите такой же результат. Но это не значит, что сам процесс происходит также.....
Вот, например, первая попавшаяся вещь из интернета:
....Биологи из Франции, США и Японии расшифровали механизм работы белка DARPP-32, функционирующего в нейронах прилежащего ядра — отдела мозга, составляющего часть «системы награды». Этот белок играет ключевую роль в процессах обучения «на положительном опыте», а также в развитии наркотической зависимости. Полученные результаты позволили спроектировать мышей-мутантов с ослабленной мотивацией поведения «положительными» стимулами, такими как пища или наркотики. В отличие от обычных мышей, мыши-мутанты проявляют меньше настойчивости в выполнении действий, направленных на добычу пропитания или новой дозы наркотика.....
Как, Брайт, у Вас в искусственных нейросетях реализована идея "положительного стимула"? - Никак. Так что, Брайт и Пилум, нейросети - это не научная модель работы мозга. Это просто компьютер с немного похожей архитектурой.....
Хотя, я, конечно, не против того, что, когда мозг будет исследован лучше, появятся более точные модели, действительно отражающие работу мозга..... Причем, не факт, что они будут лучше "думать"..... :-)
Вот еще открыл:
Среди различных структур нейронных сетей (НС) одной из наиболее известных является многослойная структура, в которой каждый нейрон произвольного слоя связан со всеми аксонами нейронов предыдущего слоя или, в случае первого слоя, со всеми входами НС. Такие НС называются полносвязными. Когда в сети только один слой, алгоритм ее обучения с учителем довольно очевиден, так как правильные выходные состояния нейронов единственного слоя заведомо известны и подстройка синаптических связей идет в направлении, минимизирующем ошибку на выходе сети. По этому принципу строится, например, алгоритм обучения однослойного персептрона. В многослойных же сетях оптимальные выходные значения нейронов всех слоев, кроме последнего, как правило, не известны, и двух- или более слойный персептрон уже невозможно обучить, руководствуясь только величинами ошибок на выходах НС. Один из вариантов решения этой проблемы: разработка наборов выходных сигналов, соответствующих входным, для каждого слоя НС, что, конечно, является очень трудоемкой операцией и не всегда осуществимо. Второй вариант: динамическая подстройка весовых коэффициентов синапсов, в ходе которой выбираются, как правило, наиболее слабые связи и изменяются на малую величину в ту или иную сторону, а сохраняются только те изменения, которые повлекли уменьшение ошибки на выходе всей сети. Очевидно, что данный метод "тыка", несмотря на свою кажущуюся простоту, требует громоздких рутинных вычислений. И, наконец, третий, более приемлемый вариант: распространение сигналов ошибки от выходов НС к ее входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы. Этот алгоритм обучения НС получил название процедуры обратного распространения. Именно он будет рассмотрен в дальнейшем.
Хорошо видно, что ни о каких исследованиях работы мозга, ни о какой попытке воссоздать его работу, речи не идет. Речь идет о создании хорошо работающего компьютера....