Поддержать команду Зеркала
Беларусы на войне
  1. «А мы можем себе это позволить?» ООН назвала главную причину, почему в семьях стало меньше детей, — беларусским властям не понравится
  2. «Правдивое обещание 3». Иран запустил ракеты по Израилю
  3. «Люди уже были наготове». Беларус в Израиле рассказал «Зеркалу», какая обстановка в стране после иранского обстрела
  4. С 1 сентября беларусы обязаны обеспечить детям образование на родине. А что с живущими за границей — рассказали в Минобразования
  5. Власти, по всей видимости, хотят «отжать» очередной частный бизнес. В этой истории появились новые подробности
  6. Российская армия достигла границы Днепропетровской области: в ISW рассказали о ее тактике с целью продвинуться вглубь
  7. «Восстающий лев». Израиль нанес масштабные удары по Ирану — атакованы ядерные объекты и ракетные заводы
  8. В Индии пассажирский самолет рухнул на жилой район. Погибли по меньшей мере 265 человек
  9. «Ребята, мы обнаглели до крайности». Лукашенко объяснил, почему летает по Беларуси на вертолете, а не ездит с кортежем
  10. «Это все было понято неправильно». Вадим Галыгин — о своей позиции в 2020 году
  11. «Это наши деньги, народные». Вслед за картофельным заговором Лукашенко обнаружил в торговле кредитный
  12. «Точную сумму не назвал». Беларуска рассказала «Зеркалу», как КГБ вербовал ее и что предлагали за сотрудничество
  13. Новая глава ПВТ позвала уехавших айтишников домой, но с условием. «Зеркало» попросило их ответить — вот что вышло


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.