Беспилотные автомобили с трудом отслеживают объекты во время движения: так почему же наши глаза этого не делают?
Новое исследование, возможно, перевернуло более чем 100-летние представления о том, как наш мозг обрабатывает визуальную информацию.
До сих пор не удалось прийти к единому научному мнению о том, как наш мозг успешно отслеживает объекты глазами, многократно каждую секунду, с поразительной координацией и, казалось бы, минимальными усилиями.
Новая статья, написанная под руководством когнитивного нейробиолога доктора Уилла Харрисона из Университета Саншайн-Кост, может дать ответ. Работа опубликована в журнале Proceedings of the National Academy of Sciences .
«Точно так же, как беспилотный автомобиль должен координировать свое движение на дороге с учетом окружающих объектов, мозг должен координировать движение глаз, головы и тела, одновременно поддерживая целостное понимание визуального мира», — сказал доктор Харрисон.
«Господствующая гипотеза на протяжении более 100 лет заключалась в том, что мозг достигает этого, постоянно предсказывая, как будет выглядеть мир, если он выполнит определенное движение. Однако такие предсказания потребовали бы огромного количества вычислительной мощности.
«Наше исследование показывает, что ответ может быть гораздо проще», — сказал доктор Харрисон.
Вместо этого мозг может вычислять реальное местоположение объектов, просто объединяя информацию о том, куда направлены глаза, и о том, где визуальная информация попадает на сетчатку.
У обезьян, животных со зрительной системой, похожей на человеческую, те части мозга, которые первыми получают зрительные сигналы от глаз, также получают информацию о том, куда направлены глаза.
Чтобы проверить эту идею, доктор Харрисон и его коллеги провели эксперимент, в котором участники выполняли сложную задачу визуального различения, перемещая взгляд по дисплею. Используя высокоскоростной айтрекер, который измеряет, куда смотрит человек, 1000 раз в секунду, доктор Харрисон обнаружил, что люди отслеживают местоположение объектов через движения глаз с гораздо большей точностью и с гораздо большим временным разрешением, чем считалось ранее.
«Мы не нашли никаких доказательств того, что мозг формулирует прогноз с каждым движением глаз, но мы обнаружили, что скорость, с которой люди могут отслеживать объекты с помощью движений глаз, очень похожа на время активности, ранее наблюдавшееся в мозге обезьяны», — сказал доктор Харрисон.
Затем исследователи разработали математическую модель для имитации того, как мозг может вычислять реальное местоположение объекта. Эффективность модели подтвердила, что визуальная стабильность, вероятно, включает в себя гораздо более простые вычисления, чем считалось ранее.
Означает ли это, что автопроизводители примут эту новую модель визуального отслеживания в своих беспилотных автомобилях?
Одной из основных проблем, препятствующих широкому распространению таких автомобилей, является то, что инженерам сложно понять, как обрабатывать огромные объемы данных в течение времени, необходимого для безопасной работы движущегося транспортного средства.
«Трудно сказать, но наши результаты могут продемонстрировать неэффективность того, как их компьютеры пытаются обрабатывать визуальные данные», — сказал доктор Харрисон.
«Это исследование меняет десятилетия общепринятого мнения о том, как наш мозг обрабатывает визуальную информацию . Мы надеемся, что наша пересмотренная теория поможет объяснить, как мозг координирует другие сложные действия с помощью множества различных чувств».