Создатели Гугл написали целую научную работу на тему того, как в процессе обучения нейросетей появляются разные аномалии. Речь идёт о недостаточной детализации, которая приводит в наилучшем случае к непредсказуемым, а в худшем — к неправильным выводам.
В базу трудности легла сама сущность нейросетей, которая сделала технологию настолько пользующейся популярностью. Так, обучаясь, метод совершенствуется на определённом наборе данных, опосля что приходит к своим своим итогам. Иногда эти итоги могут оказаться совершенно не теми, что ждали создатели нейросети. И в этом нет ничего отвратительного — напротив, конкретно это различает технологию от иных.
Но время от времени бывает так, что выводы, изготовленные ИИ, оказываются не попросту нежданными, да и неправильными. А потому что спецы не могут надзирать все аспекты, которые привели к итоговому результату, то неувязка становится ещё наиболее серьёзной.
Сотрудники Гугл предложили свою методику, способную посодействовать избежать чего-то подобного. По воззрению инженеров компании, на определённых шагах обучения нейросетей нужно ввести стресс-тесты, которые дозволили бы найти аномалии метода на довольно ранешном сроке.
Источник: