Новый способ обучения ИИ остановит большинство хакерских атак на них

Ученые из США (Соединённые Штаты Америки — сеть и вынудить ее проанализировать отредактированные изображения.

Исследователи Института Иллинойса растолковали, что один из самых огромных недочетов обучения ИИ — следующая уязвимость модели к хакерским атакам. При всем этом большая часть атак приходится на системы определения образов либо реконструкции изображений. Это вызывает тревогу у чиновников, которые работают в сфере здравоохранения, где способ нередко употребляется для реконструкции мед изображений. Если ИИ получит неверное изображение, то он может неверно поставить диагноз (медицинское заключение об имеющемся заболевании) пациенту.

Потому ученые предложили новейший способ обучения систем глубочайшего обучения, чтоб создать их наиболее отказоустойчивыми и надежными в тех вариантах, которые являются критичными исходя из убеждений сохранности.

Тюменские ученые разработали биоморфный нейропроцессор

Для этого ученые соединили нейронную сеть, отвечающую за восстановление изображений, с моделью, которая генерирует состязательные примеры (изображения, где изменяется маленькая часть оригинала). Во время обучения один ИИ пробовал одурачить иной, демонстрируя ему рисунки, которые некординально различаются от оригинала. Модель реконструкции же повсевременно анализировала рисунки и пробовала найти, оригинал это либо отредактированная картина.

В итоге сеть отыскала все отредактированные фото — этот итог лучше, чем у остальных нейронных сетей. Во время тестов ученые попробовали вручную взломать систему и показать ей сотки версий отредактированных изображений, но все из их были отклонены.

Читать также:

Комета NEOWISE видна в Рф. Где ее узреть, куда глядеть и как создать фото

Выяснилось, что принудило цивилизацию майя покинуть свои городка

На 3 денек работоспособности»>заболевания большая часть нездоровых COVID-19 теряют чутье и нередко мучаются насморком

Источник