Поддержать команду Зеркала
Беларусы на войне
  1. «Люди уже были наготове». Беларус в Израиле рассказал «Зеркалу», какая обстановка в стране после иранского обстрела
  2. Новая глава ПВТ позвала уехавших айтишников домой, но с условием. «Зеркало» попросило их ответить — вот что вышло
  3. С 1 сентября беларусы обязаны обеспечить детям образование на родине. А что с живущими за границей — рассказали в Минобразования
  4. Российская армия достигла границы Днепропетровской области: в ISW рассказали о ее тактике с целью продвинуться вглубь
  5. «Правдивое обещание 3». Иран запустил ракеты по Израилю
  6. «А мы можем себе это позволить?» ООН назвала главную причину, почему в семьях стало меньше детей, — беларусским властям не понравится
  7. «Восстающий лев». Израиль нанес масштабные удары по Ирану — атакованы ядерные объекты и ракетные заводы
  8. «Это наши деньги, народные». Вслед за картофельным заговором Лукашенко обнаружил в торговле кредитный
  9. «Точную сумму не назвал». Беларуска рассказала «Зеркалу», как КГБ вербовал ее и что предлагали за сотрудничество
  10. «Это все было понято неправильно». Вадим Галыгин — о своей позиции в 2020 году
  11. Власти, по всей видимости, хотят «отжать» очередной частный бизнес. В этой истории появились новые подробности


Исследователи из Университета штата Северная Каролина разработали инструмент для обучения ИИ, который поможет программам лучше учитывать то, что люди не всегда говорят правду, предоставляя личную информацию. Новый метод обучения разработан для использования в ситуациях, когда у людей есть экономический стимул лгать, например, при подаче заявки на ипотеку или попытке снизить страховые взносы, пишет «Хайтек».

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

ИИ уже используют в самых разных ситуациях для поддержки принятия решений. Такие программы, как правило, используют для прогнозирования математические алгоритмы, основанные исключительно на статистике. Проблема в том, что этот подход создает стимулы для людей лгать, например, чтобы получить ипотеку.

Исследователи разработали набор параметров, которые можно использовать для определения того, как ИИ учится делать прогнозы. Параметры помогают программе распознавать и учитывать экономические стимулы человека. Другими словами, ИИ учится распознавать обстоятельства, в которых человеку выгодно лгать.

В ходе моделирования, подтверждающего концепцию, модифицированный ИИ лучше обнаруживал неточную информацию от пользователей. Исследователи делают новые параметры обучения ИИ общедоступными, чтобы разработчики ИИ могли экспериментировать с ними.

«Это эффективно снижает стимул пользователя лгать при отправке информации. Однако маленькая ложь все равно может остаться незамеченной. Нам нужно проделать дополнительную работу, чтобы понять, где находится порог между „маленькой“ и „большой ложью“. В какой-то момент, если мы сделаем ИИ достаточно умным, мы сможем полностью устранить эти стимулы», — рассказал соавтор исследования Мехмет Канер.