Разработчики Google написали целую научную работу на тему того, как в процессе обучения нейросетей возникают различные аномалии. Речь идёт о недостаточной детализации, которая приводит в лучшем случае к непредсказуемым, а в худшем — к неверным выводам.
В основу проблемы легла сама суть нейросетей, которая сделала технологию столь популярной. Так, обучаясь, алгоритм совершенствуется на определённом наборе данных, после чего приходит к своим собственным итогам. Порой эти итоги могут оказаться совсем не теми, что ожидали создатели нейросети. И в этом нет ничего плохого — наоборот, именно это отличает технологию от прочих.
Но иногда случается так, что выводы, сделанные ИИ, оказываются не просто неожиданными, но и неверными. А так как специалисты не могут контролировать все критерии, которые привели к итоговому результату, то проблема становится ещё более серьёзной.
Сотрудники Google предложили собственную методику, способную помочь избежать чего-то подобного. По мнению инженеров компании, на определённых этапах обучения нейросетей необходимо ввести стресс-тесты, которые позволили бы обнаружить аномалии алгоритма на достаточно раннем сроке.
Источник: