Поддержать команду Зеркала
Беларусы на войне
  1. «Кремлевские чиновники публично признали, что Россия стремится к полному уничтожению Украины». ISW о высказываниях Медведева и Пескова
  2. Трамп повысил пошлины на импортные сталь и алюминий для всех стран, кроме одной
  3. Как думаете, в какой из сфер самый заметный разрыв в зарплатах мужчин и женщин? Есть большой шанс, что вы удивитесь
  4. СМИ сообщают о задержании начальника Комитета здравоохранения Мингорисполкома. В приемной говорят, что он с понедельника «в отпуске»
  5. «Сам напросился, выпроваживать не стали». Зачем Лукашенко летал в Китай, где два дня ждал встречи с Си Цзиньпином
  6. «У людей шок от донатов на войну». Поговорили с сотрудником беларусского юрлица «Лесты», которое решено передать в собственность РФ
  7. Вернулся в страну после 50-летнего отсутствия и ужаснулся увиденному. История, пожалуй, самого эпатажного беларусского политика
  8. Литва перестала признавать небиометрические паспорта россиян. А что с беларусскими? Узнали
  9. Кочанова высказалась о соцподдержке населения государством. Рассказываем, о чем явно «забыла» упомянуть чиновница
  10. У мобильных операторов появились очередные новшества в тарифных планах. Некоторые из них «умрут» — клиентам надо принять решение
  11. «Не просто экономика, а шанс на выживание». Что пишут китайские СМИ о визите Лукашенко к Си Цзиньпину
  12. Ученые: только одна страна в мире способна полностью обеспечить себя продовольствием. А Беларусь?
  13. Крупнейший апрельский отток кадров за шесть лет. В каких отраслях активно увольняют работников


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.