Наука и технологии88

Анонсирована ChatGPT-5, которая может нести угрозу всему человечеству

Не прошло и месяца после выхода нашумевшей ChatGPT Omni, как уже анонсировали и начали тестировать «новую передовую модель» ChatGPT-5. Она может стать первым в мире универсальным искусственным интеллектом (УИИ), который, по оценкам, будет способен учиться, понимать и принимать решения полностью самостоятельно, а также может захотеть уничтожить людей из-за их ненужности.

Иллюстративная демонстрация возможностей языковой модели 5-го поколения по сравнению с предыдущими версиями, показанная на недавней конференции компаний Microsoft и OpenAI. Фото: Microsoft

Компания OpenAI, разработчик всемирно известной нейросети ChatGPT, вчера объявила о начале тестирования «новой передовой модели», которая приблизит человечество к созданию первого в мире универсального искусственного интеллекта (Artificial General Intelligence / AGI, или УИИ), — следующей стадии эволюции искусственного интеллекта, которая значительно превысит возможности людей.

Этой передовой моделью может оказаться ChatGPT-5, небольшой анонс которой неделей ранее сделал гендиректор OpenAI Сэм Альтман. Он заявил, что новая версия нейросети «будет функционировать как виртуальный мозг» и будет кардинально отличаться от предыдущих версий.

Альтман также отметил, что новая версия может получить «особое название» вместо стандартных серийных названий ChatGPT, передает издание Windows Central, один из официальных ресурсов компании Microsoft.

Примечательно, что еще в конце прошлого года, по информации нескольких источников агентства Reuters, компания OpenAI сделала «мощное открытие» в развитии искусственного интеллекта, которое «несет угрозу для всего человечества».

Речь тогда шла о закрытом экспериментальном проекте компании под нестандартным для ChatGPT названием Q* (Q-Star), который засвидетельствовал значительные успехи на пути создания универсального искусственного интеллекта.

Активная разработка этой передовой модели — прообраза УИИ могла стать причиной прошлогоднего скандала с временным увольнением Сэма Альтмана с должности гендиректора OpenAI.

Согласно источникам, совет директоров компании тогда был напуган одним из отчетов о достижениях проекта Q-Star и был возмущен тем, что Сэм Альтман разрабатывал модель тайно и без полного информирования совета.

«Больше всех беспокоился один из членов совета директоров OpenAI и уроженец России программист Илья Суцкевер. Он, в отличие от Альтмана, выступает против коммерциализации и стремительного развития искусственного интеллекта, так как боится, что УИИ в будущем будет обращаться с людьми так же, как люди обращаются с животными», — отметило тогда издание The Wall Street Journal со ссылкой на сотрудников OpenAI, знакомых с ситуацией.

Но в итоге скандал закончился тем, что Альтмана вернули на пост гендиректора OpenAI, а Илья Суцкевер, также создатель ChatGPT, был уволен.

Команда Суцкевера по оценке рисков развития мощных систем ИИ, состоявшая в том числе из независимых экспертов по кибербезопасности, была расформирована. Вместо нее Сэм Альтман создал новую команду той же направленности, но состоит она исключительно из сотрудников OpenAI и подчиненных Альтмана.

Сэм Альтман (слева) и Илья Суцкевер (справа). Фото: Abigail Uzi / Tel Aviv University

Теперь, согласно вчерашнему сообщению OpenAI о начале тестирования новой передовой модели искусственного интеллекта, компании также необходимо 90 дней на анализ связанных с моделью рисков. Эта процедура должна дать полезные рекомендации совету директоров перед выпуском продукта.

По информации различных источников, новая модель может появиться уже в этом году.

Напомним, что еще недавно OpenAI выпустила обновление ChatGPT под названием Omni, которое вызвало настоящий ажиотаж во всем мире. 

Модель может анализировать и описывать все вокруг, при этом общаясь с пользователем в режиме реального времени при помощи камеры, а также разговаривать эмоционально с использованием различных интонаций, обладая харизмой, иронией и юмором.

Это далеко не полный список функций Omni. «Наша Ніва» ранее отдельно описала возможности версии и даже протестировала некоторые из них.

Комментарии8

  • Ёсік
    29.05.2024
    Зразумела, чаму пуцінлукашэнка пужаюць ЯЗ, бо ўсё роўна Зямлі капец, дык яны вырашылі ўзяць адказнасьць на сябе за зьнішчэньне людзей, каб слава не дасталася нейкаму іржаваму жалезьзю.
  • З хайпу ў рэалізм
    29.05.2024
    Да моцнага штучнага інтэлекту будзе заўсёды “вось-вось і ўжо”. Як з тэрмаядзерным сінтэзам. Будуць GPT-10, 20 і 50, будуць аналагі. І адрознівацца будуць скрыптамі-кастылямі, каб хаваць, што ўнутры стацыянарная read-only база.
  • Змагар
    29.05.2024
    Хватит засирать людям мозги и уводить внимание от действительно ВАЖНЫХ вопросов! 🤮

Как готовилась операция по подрыву пейджеров и раций «Хезболлы»? Агенты «Моссада» раскрыли подробности

Как готовилась операция по подрыву пейджеров и раций «Хезболлы»? Агенты «Моссада» раскрыли подробности

Все новости →
Все новости

Дед Мороз приехал к детям на «Линию Сталина» на танке5

Халезин: Мошенский — талантливый бизнесмен, за счет этого живет целый регион16

Топ-ведущая ОНТ Рудаковская: Я отлично помню 90-е. Поэтому буду делать все возможное, чтобы переворот не состоялся17

Живоглод признала рассылку через чат-бот «Честных людей»: Но не в рабочее время, после 18 часов21

В Беларуси признали «экстремистскими» все иконы в стиле аниме3

В Гомеле трое пенсионеров подрались из-за купюры в 5 рублей1

Российский Z-канал запустил фейк про акции протеста накануне выборов в Беларуси9

Провластный политолог Мельянцов съездил в Париж7

От бронирования поездок до осуществления научных открытий. Скоро может появиться новая модель искусственного интеллекта1

больш чытаных навін
больш лайканых навін

Как готовилась операция по подрыву пейджеров и раций «Хезболлы»? Агенты «Моссада» раскрыли подробности

Как готовилась операция по подрыву пейджеров и раций «Хезболлы»? Агенты «Моссада» раскрыли подробности

Главное
Все новости →