Поддержать команду Зеркала
Беларусы на войне
  1. «Восстающий лев». Израиль нанес масштабные удары по Ирану — атакованы ядерные объекты и ракетные заводы
  2. В Индии пассажирский самолет рухнул на жилой район. Погибли по меньшей мере 265 человек
  3. «Ребята, мы обнаглели до крайности». Лукашенко объяснил, почему летает по Беларуси на вертолете, а не ездит с кортежем
  4. С 1 сентября беларусы обязаны обеспечить детям образование на родине. А что с живущими за границей — рассказали в Минобразования
  5. «Это наши деньги, народные». Вслед за картофельным заговором Лукашенко обнаружил в торговле кредитный
  6. Чиновники взялись за зарплаты населения — рассылают «письма счастья» и придумали новшество
  7. «А мы можем себе это позволить?» ООН назвала главную причину, почему в семьях стало меньше детей, — беларусским властям не понравится
  8. Российская армия достигла границы Днепропетровской области: в ISW рассказали о ее тактике с целью продвинуться вглубь
  9. После свадьбы вора в законе Лукашенко приказал разобраться с ним. Как «эскадроны смерти» уничтожали беларусских авторитетов
  10. Власти, по всей видимости, хотят «отжать» очередной частный бизнес. В этой истории появились новые подробности
  11. «Правдивое обещание 3». Иран запустил ракеты по Израилю
  12. Новая глава ПВТ позвала уехавших айтишников домой, но с условием. «Зеркало» попросило их ответить — вот что вышло
  13. «Это все было понято неправильно». Вадим Галыгин — о своей позиции в 2020 году


/

26-летний бывший исследователь OpenAI, Сучир Балажи, был найден мертвым в своей квартире в Сан-Франциско. Официальная причина смерти — суицид. Ранее он заявлял о нарушении законодательства компанией и серьезном беспокойстве о том, что ее разработки идут на пользу человечеству, сообщает CNBC.

Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters
Человек работает с генеративной нейросетью ChatGPT. Фото: Reuters

Баладжи нашли мертвым у себя дома еще 26 ноября, однако его смерть стала широко обсуждаться в СМИ в середине декабря.

«Причина смерти была определена как самоубийство», — сообщил изданию CNBC Дэвид Серрано Сьюэлл, исполнительный директор офиса главного медицинского эксперта Сан-Франциско. Он добавил, что ближайшие родственники Балажи были уведомлены об этом. Полицейское управление Сан-Франциско сообщило, что на теле мужчины не было признаков насильственной смерти.

Представитель OpenAI подтвердил смерть Баладжи.

«Мы потрясены этой невероятно печальной новостью и выражаем глубокие соболезнования близким Сучира в это трудное время», — говорится в сообщении компании, опубликованном CNBC.

Миллиардер Илон Маск, известный соперничеством с генеральным директором OpenAI Сэмом Альтманом, отреагировал на эту новость междометием «хмм».

Сучир Балажи, бывший исследователь OpenAI. Фото с его страницы в LinkedIn
Сучир Балажи, бывший исследователь OpenAI. Фото с его страницы в LinkedIn

Балажи работал в OpenAI с ноября 2020 до августа 2024 года, пишет издание The Economic Times со ссылкой на его страницу в LinkedIn. До прихода в OpenAI он изучал информатику в Калифорнийском университете в Беркли.

Во время работы в OpenAI Сучир Балажи внес вклад в несколько ключевых проектов. Изначально он занимался проектом WebGPT, а позже присоединился к команде, работавшей над предварительным обучением GPT-4. Он также сотрудничал с командой, занимающейся разработкой алгоритмов рассуждения, и участвовал в дополнительном обучении ChatGPT.

После четырех лет работы в OpenAI Балажи решил покинуть компанию. В интервью The New York Times он рассказал о своей растущей обеспокоенности возможным вредом, который технологии могут нанести обществу.

Особенно он критиковал предполагаемое использование OpenAI данных, защищенных авторским правом. «Если вы верите в то, во что верю я, вам нужно просто покинуть компанию», — сказал он, обвинив OpenAI в нарушении законов об авторском праве.

В октябре он опубликовал пост на платформе X (ранее Twitter), где затронул юридические противоречия, связанные с доктриной добросовестного использования (fair use) и генеративным ИИ. Баладжи выразил сомнения, что этот принцип применим к большинству продуктов, созданных на базе ИИ.

В настоящее время OpenAI участвует в судебных разбирательствах с рядом издателей, авторов и художников, которые обвиняют компанию в использовании для обучения ИИ материалов, защищенных авторским правом, пишет CNBC. Иск, поданный в декабре прошлого года средствами массовой информации, требует привлечь OpenAI и ее основного партнера Microsoft к ответственности на миллиарды долларов.

«Нам на самом деле не нужно использовать их данные для обучения, — заявил генеральный директор OpenAI Сэм Альтман на мероприятии, организованном Bloomberg в Давосе ранее в этом году. — Я думаю, люди этого не понимают. Любой конкретный источник данных для нас не является критически важным».