Гугл озвучила основной недочет ИИ и предложила метод его устранения

Создатели Гугл написали целую научную работу на тему того, как в процессе обучения нейросетей появляются разные аномалии. Речь идёт о недостаточной детализации, которая приводит в наилучшем случае к непредсказуемым, а в худшем — к неправильным выводам.

В базу трудности легла сама сущность нейросетей, которая сделала технологию настолько пользующейся популярностью. Так, обучаясь, метод совершенствуется на определённом наборе данных, опосля что приходит к своим своим итогам. Иногда эти итоги могут оказаться совершенно не теми, что ждали создатели нейросети. И в этом нет ничего отвратительного — напротив, конкретно это различает технологию от иных.

Но время от времени бывает так, что выводы, изготовленные ИИ, оказываются не попросту нежданными, да и неправильными. А потому что спецы не могут надзирать все аспекты, которые привели к итоговому результату, то неувязка становится ещё наиболее серьёзной.

Сотрудники Гугл предложили свою методику, способную посодействовать избежать чего-то подобного. По воззрению инженеров компании, на определённых шагах обучения нейросетей нужно ввести стресс-тесты, которые дозволили бы найти аномалии метода на довольно ранешном сроке.

Источник: tproger.ru

Поделиться с друзьями:
Андройд IT
Добавить комментарий