Поддержать команду Зеркала
Беларусы на войне
  1. Что можно сделать с техникой, если на телефоне внезапно пропала связь и вы подозреваете, что к вам идут силовики? Объясняет эксперт
  2. «Уже почти четверо суток ждать». Перед длинными выходными на границе с Польшей снова выстроились очереди
  3. В Минске вынесли первый приговор по статье об «отрицании геноцида». Мужчину судили за посты о Хатыни и Лукашенко
  4. Эксперты проанализировали проект «мирного договора», который Россия хотела заключить с Украиной в начале войны — вот их выводы
  5. Новая тактика и «специальный подход». Узнали, к кому и по каким основаниям приходили силовики во время недавних рейдов
  6. Стали известны имена всех потенциальных кандидатов в президенты Беларуси
  7. В Гродно 21-летнего курсанта МВД приговорили к 15 годам колонии
  8. «Наша Ніва»: Задержан известный певец Дядя Ваня
  9. В СМИ попал проект мирного договора, который Киев и Москва обсуждали в начале войны: он раскрывает планы Путина на устройство Украины
  10. Эксперт заметила, что одна из стран ЕС стала охотнее выдавать визы беларусам. Что за государство и какие сроки?
  11. Объемы торгов все ниже, а курс повышается: чего ждать от доллара в начале ноября. Прогноз по валютам
  12. Лукашенко согласовал назначение новых руководителей в «Белнефтехим» и на «Беларуськалий»


Исследователи из Университета штата Северная Каролина разработали инструмент для обучения ИИ, который поможет программам лучше учитывать то, что люди не всегда говорят правду, предоставляя личную информацию. Новый метод обучения разработан для использования в ситуациях, когда у людей есть экономический стимул лгать, например, при подаче заявки на ипотеку или попытке снизить страховые взносы, пишет «Хайтек».

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

ИИ уже используют в самых разных ситуациях для поддержки принятия решений. Такие программы, как правило, используют для прогнозирования математические алгоритмы, основанные исключительно на статистике. Проблема в том, что этот подход создает стимулы для людей лгать, например, чтобы получить ипотеку.

Исследователи разработали набор параметров, которые можно использовать для определения того, как ИИ учится делать прогнозы. Параметры помогают программе распознавать и учитывать экономические стимулы человека. Другими словами, ИИ учится распознавать обстоятельства, в которых человеку выгодно лгать.

В ходе моделирования, подтверждающего концепцию, модифицированный ИИ лучше обнаруживал неточную информацию от пользователей. Исследователи делают новые параметры обучения ИИ общедоступными, чтобы разработчики ИИ могли экспериментировать с ними.

«Это эффективно снижает стимул пользователя лгать при отправке информации. Однако маленькая ложь все равно может остаться незамеченной. Нам нужно проделать дополнительную работу, чтобы понять, где находится порог между „маленькой“ и „большой ложью“. В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить эти стимулы», — рассказал соавтор исследования Мехмет Канер.