Поддержать команду Зеркала
Беларусы на войне
  1. «Впервые за пять лет попросили показать второй паспорт». Как проходят проверки на границе Беларуси с ЕС
  2. Зачем Беларуси пакистанские рабочие и готово ли общество их принять? Мнение Льва Львовского
  3. Российские войска перебросили дополнительные части под Торецк и активизировали использование бронетехники — с какой целью
  4. Сооснователь инициатив BY_help и BYSOL Леончик — об исчезновении Мельниковой: «Есть информация относительно ее возможного маршрута»
  5. «То, что Лукашенко не признал Крым, страшно раздражало Путина». Большое интервью «Зеркала» с последним послом Украины в России
  6. Что умеет программа, которой беларусские силовики «вскрывают» смартфоны? Рассказываем
  7. Основатель NEXTA попал в список Forbes «30 до 30»
  8. США отменили гранты на демократию для стран бывшего СССР, в том числе Беларуси
  9. «Мальчики не хотели причинить вреда девочкам. Они просто хотели их изнасиловать». История трагедии, в которую сложно поверить
  10. «Перед глазами стоит скорчившаяся Мария Колесникова, которую тащат из ШИЗО». Экс-политзаключенная — об ужасах тюремной медицины
  11. «Я снимаю, он выбивает телефон». Беларусский блогер Андрей Паук рассказал, что на него напали у посольства РФ в Вильнюсе
  12. Десятки случаев. Узнали, как проходят проверки КГБ на железной дороге
  13. Пропагандистку Ольгу Бондареву отчислили из университета
  14. В Польше подписан закон, который касается и беларусов. Что меняется для мигрантов
  15. Легко ли беларусу устроиться на фабрику, куда Лукашенко пригласил мигрантов из Пакистана
  16. Стали известны зарплаты старших сыновей Лукашенко
  17. Кухарев заявил, что минчане получают по тысяче долларов в среднем. Но чиновник не учел важный момент


Глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, профессор компьютерных наук Стюарт Рассел и еще около тысячи экспертов из сферы ИИ призвали приостановить обучение нейросетей более мощных, чем GPT-4, так как это может представлять угрозу для всего человечества. Об этом они заявили в открытом письме, которое опубликовано на сайте организации Future of Life Institute.

Фотография используется в качестве иллюстрации. Фото: pixabay.com
Фотография используется в качестве иллюстрации. Фото: pixabay.com

В письме говорится, что системы ИИ с человеко-конкурентным интеллектом могут нести серьезные риски для общества и человечества. В нем содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчеркивают авторы письма.

В письме также указывается, что лаборатории и независимые эксперты должны использовать паузу в шесть месяцев для совместной разработки и внедрения набора общих протоколов, которые должны гарантировать безопасность.

Напомним, в конце января Microsoft объявила о многолетних и многомиллиардных инвестициях в лабораторию искусственного интеллекта (ИИ) OpenAI, которая среди прочего создала чат-бот ChatGPT. Microsoft не назвала конкретную сумму, но СМИ сообщали об объеме в 10 млрд долларов.

ChatGPT — это чат-бот, основанный на последней версии языковой модели GPT. Он был запущен в конце ноября 2022 года, а спустя всего неделю после запуска число его пользователей достигло 1 млн.

Такая популярность, по словам разработчиков, объясняется тем, что ChatGPT обучен «отвечать на последовательные вопросы, признавать свои ошибки, оспаривать некорректные вводные данные и отклонять неуместные вопросы».

В Сети можно найти много примеров использования ChatGPT: от составления резюме или инвестиционного портфеля до написания приветственного сообщения в приложении для знакомств или речи в Конгрессе США, от стихов до помощи в написании программного кода.