Не уверен, что полностью понял механизм "глубокого обучения".
Однако почти уверился, что он(механизм) не предполагает разрыва одних связей и установления других связей между "нейронами".
Единственное, что меняется, это веса уже существующих (аппаратно конечно) связей. Чего на мой взгляд не достаточно для аналогии с настоящим мозгом.
Я сам пришел к другому механизму для ЭВМ аналогии и ждал, что специалисты уже давно о нем знают. Но пока не вижу этого в прочитанном мною.
Речь идет о задействовании адресной системы , присущей сегодняшним ЭВМ.
В таком случае каждый "нейрон" может быть представлен ячейкой в памяти (обьемом в пару-тройку килобайтов), где каждый байт содержит запись адреса какого-либо другого "нейрона". Эти адреса и будут аналогами связей между нейронами, причем если в настоящем мозгу связь строится минуты или даже часы. В машинном случае требуются миллиардные доли секунды(оперативная память).
Все это элементарно и возможно я просто не понимаю специфичную терминологию эвм-щиков.
p.s. Кстати, по этой схеме можно посчитать, что для полного аналога человеческого мозга (150 млрд нейронов), нужна память больше 45000 терабайт (45 петабайт).
p.p.s. Причем эту память желательно иметь в виде оперативной памяти, чтобы не терять преимущество в скорости.