Обсуждение:Computational Cognitive Neuroscience
Первый интересный момент из видеокурса, про который я думал, когда смотрел курсы про TensorFlow (открыть в YouTube):
althought I'd note that most current AI models do not capture this kind of bidirectional excitation and that may be a critical element that's missing in those models
Другими словами, в ИИ популярны многослойные модели, но сигнал (в основном) проходит в одну сторону, что не совсем реалистично. Возможно, это моя "склонность к подтверждению своей точки зрения". Даже если так, сейчас эта склонность кричит от радости.
Ещё один любопытный момент - наглядное объяснение эмерджентности через два зубчатых колеса (открыть в YouTube).
По отдельности они являются простыми объектами, для которых можно найти материал и массу. Вместе они становятся чем-то новым и появляются новые правила: вращение каждого из колёс зависит от других, маленькое колесо вращается быстрее большого. Из взаимодействия простых вещей появляется нечто более сложное, не важно то, из какого материала состоят шестерни, важно отношение между ними. Другой пример: не столь много генов кодируют то, как строится мозг.
Вычислительная когнитивная нейробиология помогает понять работу мозга через основной вопрос: «как построить мозг»?
Пример того, почему вычислительная когнитивная нейробиология работает: «почти невозможно собрать паззл синего неба», так как в нём теряется смысл. Чтобы разобраться в происходящем, есть смысл "добавить текстуру": все возможные детали, всё, что помогает различить элементы паззла. «Замусоренные паззлы проще решить» (открыть в YouTube).
Таким образом, картинка, которую мы получаем - ещё более детальная, чем то, что мы знаем про мозг.
Neurons encode their knowledge through the synaptic strengths. Everything you know at some level boils down to a strength of synapses between your neurons.
Рэндалл упоминает, что обработка сигналов в нейронах может рассматриваться через вероятности и «Байесовскую математику», хотя мне здесь точно не ясно, какие идеи Байеса он подразумевает.