Обсуждение:Computational Cognitive Neuroscience: различия между версиями

Материал из hpluswiki
Перейти к навигации Перейти к поиску
Нет описания правки
Нет описания правки
 
(не показана 1 промежуточная версия этого же участника)
Строка 22: Строка 22:


Таким образом, картинка, которую мы получаем - ещё более детальная, чем то, что мы знаем про мозг.
Таким образом, картинка, которую мы получаем - ещё более детальная, чем то, что мы знаем про мозг.
-----
    Neurons encode their knowledge through the synaptic strengths.
    Everything you know at some level boils down to a strength of synapses between your neurons.
[https://youtu.be/5Qx_7U2lP_0?list=PLu02O8xRZn7xtNx03Rlq6xMRdYcQgEpar&t=319 открыть в YouTube]
-----
Рэндалл упоминает, что обработка сигналов в нейронах может рассматриваться через вероятности и «Байесовскую математику», хотя '''мне''' здесь точно не ясно, какие идеи Байеса он подразумевает.
[https://youtu.be/3nf47KXUgbw?list=PLu02O8xRZn7xtNx03Rlq6xMRdYcQgEpar&t=540 открыть в YouTube]


([[Участник:Experimentalist|Experimentalist]])
([[Участник:Experimentalist|Experimentalist]])


-----
-----

Текущая версия от 11:47, 23 февраля 2021

Первый интересный момент из видеокурса, про который я думал, когда смотрел курсы про TensorFlow (открыть в YouTube):

 althought I'd note that most current AI models
 do not capture this kind of bidirectional excitation
 and that may be a critical element that's missing in those models 

Другими словами, в ИИ популярны многослойные модели, но сигнал (в основном) проходит в одну сторону, что не совсем реалистично. Возможно, это моя "склонность к подтверждению своей точки зрения". Даже если так, сейчас эта склонность кричит от радости.


Ещё один любопытный момент - наглядное объяснение эмерджентности через два зубчатых колеса (открыть в YouTube).

По отдельности они являются простыми объектами, для которых можно найти материал и массу. Вместе они становятся чем-то новым и появляются новые правила: вращение каждого из колёс зависит от других, маленькое колесо вращается быстрее большого. Из взаимодействия простых вещей появляется нечто более сложное, не важно то, из какого материала состоят шестерни, важно отношение между ними. Другой пример: не столь много генов кодируют то, как строится мозг.


Вычислительная когнитивная нейробиология помогает понять работу мозга через основной вопрос: «как построить мозг»?

Пример того, почему вычислительная когнитивная нейробиология работает: «почти невозможно собрать паззл синего неба», так как в нём теряется смысл. Чтобы разобраться в происходящем, есть смысл "добавить текстуру": все возможные детали, всё, что помогает различить элементы паззла. «Замусоренные паззлы проще решить» (открыть в YouTube).

Таким образом, картинка, которую мы получаем - ещё более детальная, чем то, что мы знаем про мозг.


   Neurons encode their knowledge through the synaptic strengths.
   Everything you know at some level boils down to a strength of synapses between your neurons. 

открыть в YouTube


Рэндалл упоминает, что обработка сигналов в нейронах может рассматриваться через вероятности и «Байесовскую математику», хотя мне здесь точно не ясно, какие идеи Байеса он подразумевает.

открыть в YouTube

(Experimentalist)