Ученые не могут воспроизвести исследования ИИ, и это серьезная проблема

На недавнем собрании Ассоциации развития искусственного интеллекта (Association for the Advancement of Artificial Intelligence) ученый Одд Эрик Гундерсен представил доклад, суть которого – отрасль загоняет себя в опасный тупик. Оказывается, большинство существующих ИИ не поддерживают фундаментальный принцип репликации (воспроизводимости) собственных действий. И на то есть две причины, решения которых пока не видится.

Под репликацией в данном случае понимается получение одинаковых результатов работы ИИ при постановке идентичных задач. Пользователь хочет быть уверен, что управляющая система его ноутбука или атомного реактора работает не только эффективно, но и предсказуемо. Пока все ограничивается очень простыми, шаблонными задачами, так оно и есть, но мы уже сейчас видим начинающиеся отклонения в работе реальных систем.

Первая причина: все современные ИИ непрерывно учатся и меняют свой стиль работы, тактику и стратегию. Становятся индивидуальными, из-за чего их нужно принудительно переучивать для работы в новых условиях. Но это крайне трудно реализовать по второй причине – исходный код, алгоритмы работы почти всех систем закрыты их разработчиками.

В докладе Гундерсена указано, что из 400 ИИ, представленных сообществу за два последних года, лишь у 6 % алгоритм поддавался дешифровке и изучению. Выдачу промежуточных данных поддерживало менее трети программ, из-за чего их отладка и настройка становилась невероятно трудной задачей. Гундерсен признает за авторами алгоритмов ИИ право сохранять в тайне их интеллектуальный труд, но призывает всех подумать о том, чтобы начать работать сообща. В противном случае будущее ИИ выглядит весьма туманным.

 

 

По материалам reired