Наука и технологии6

Анонсирована ChatGPT-5, которая может нести угрозу всему человечеству

Не прошло и месяца после выхода нашумевшей ChatGPT Omni, как уже анонсировали и начали тестировать «новую передовую модель» ChatGPT-5. Она может стать первым в мире универсальным искусственным интеллектом (УИИ), который, по оценкам, будет способен учиться, понимать и принимать решения полностью самостоятельно, а также может захотеть уничтожить людей из-за их ненужности.

Иллюстративная демонстрация возможностей языковой модели 5-го поколения по сравнению с предыдущими версиями, показанная на недавней конференции компаний Microsoft и OpenAI. Фото: Microsoft

Компания OpenAI, разработчик всемирно известной нейросети ChatGPT, вчера объявила о начале тестирования «новой передовой модели», которая приблизит человечество к созданию первого в мире универсального искусственного интеллекта (Artificial General Intelligence / AGI, или УИИ), — следующей стадии эволюции искусственного интеллекта, которая значительно превысит возможности людей.

Этой передовой моделью может оказаться ChatGPT-5, небольшой анонс которой неделей ранее сделал гендиректор OpenAI Сэм Альтман. Он заявил, что новая версия нейросети «будет функционировать как виртуальный мозг» и будет кардинально отличаться от предыдущих версий.

Альтман также отметил, что новая версия может получить «особое название» вместо стандартных серийных названий ChatGPT, передает издание Windows Central, один из официальных ресурсов компании Microsoft.

Примечательно, что еще в конце прошлого года, по информации нескольких источников агентства Reuters, компания OpenAI сделала «мощное открытие» в развитии искусственного интеллекта, которое «несет угрозу для всего человечества».

Речь тогда шла о закрытом экспериментальном проекте компании под нестандартным для ChatGPT названием Q* (Q-Star), который засвидетельствовал значительные успехи на пути создания универсального искусственного интеллекта.

Активная разработка этой передовой модели — прообраза УИИ могла стать причиной прошлогоднего скандала с временным увольнением Сэма Альтмана с должности гендиректора OpenAI.

Согласно источникам, совет директоров компании тогда был напуган одним из отчетов о достижениях проекта Q-Star и был возмущен тем, что Сэм Альтман разрабатывал модель тайно и без полного информирования совета.

«Больше всех беспокоился один из членов совета директоров OpenAI и уроженец России программист Илья Суцкевер. Он, в отличие от Альтмана, выступает против коммерциализации и стремительного развития искусственного интеллекта, так как боится, что УИИ в будущем будет обращаться с людьми так же, как люди обращаются с животными», — отметило тогда издание The Wall Street Journal со ссылкой на сотрудников OpenAI, знакомых с ситуацией.

Но в итоге скандал закончился тем, что Альтмана вернули на пост гендиректора OpenAI, а Илья Суцкевер, также создатель ChatGPT, был уволен.

Команда Суцкевера по оценке рисков развития мощных систем ИИ, состоявшая в том числе из независимых экспертов по кибербезопасности, была расформирована. Вместо нее Сэм Альтман создал новую команду той же направленности, но состоит она исключительно из сотрудников OpenAI и подчиненных Альтмана.

Сэм Альтман (слева) и Илья Суцкевер (справа). Фото: Abigail Uzi / Tel Aviv University

Теперь, согласно вчерашнему сообщению OpenAI о начале тестирования новой передовой модели искусственного интеллекта, компании также необходимо 90 дней на анализ связанных с моделью рисков. Эта процедура должна дать полезные рекомендации совету директоров перед выпуском продукта.

По информации различных источников, новая модель может появиться уже в этом году.

Напомним, что еще недавно OpenAI выпустила обновление ChatGPT под названием Omni, которое вызвало настоящий ажиотаж во всем мире. 

Модель может анализировать и описывать все вокруг, при этом общаясь с пользователем в режиме реального времени при помощи камеры, а также разговаривать эмоционально с использованием различных интонаций, обладая харизмой, иронией и юмором.

Это далеко не полный список функций Omni. «Наша Ніва» ранее отдельно описала возможности версии и даже протестировала некоторые из них.

Каментары6

  • Ёсік
    29.05.2024
    Зразумела, чаму пуцінлукашэнка пужаюць ЯЗ, бо ўсё роўна Зямлі капец, дык яны вырашылі ўзяць адказнасьць на сябе за зьнішчэньне людзей, каб слава не дасталася нейкаму іржаваму жалезьзю.
  • З хайпу ў рэалізм
    29.05.2024
    Да моцнага штучнага інтэлекту будзе заўсёды “вось-вось і ўжо”. Як з тэрмаядзерным сінтэзам. Будуць GPT-10, 20 і 50, будуць аналагі. І адрознівацца будуць скрыптамі-кастылямі, каб хаваць, што ўнутры стацыянарная read-only база.
  • Змагар
    29.05.2024
    Хватит засирать людям мозги и уводить внимание от действительно ВАЖНЫХ вопросов! 🤮

Посол Сидоренко покончил с собой — не выдержал допросов КГБ27

Посол Сидоренко покончил с собой — не выдержал допросов КГБ

Все новости →
Все новости

Ученики старших классов некоторых школ будут учиться вождению1

В Гомеле после суток за репосты уволили семью онкологов. Один из них — отличник здравоохранения Беларуси6

Девять из десяти белорусских борцов не допустили к Олимпиаде в Париже1

В НАТО будет новый генеральный секретарь3

Украина поборется за выход в плей-офф Евро, но белорусское ТВ этот матч не покажет

Власти выставили на аукцион земельный участок Бабарико на берегу водохранилища Вяча11

В маршрутку под Молодечно врезался боксер, возвращавшийся с Игр БРИКС в Казани3

Афганская журналистка после отказа в убежище в России улетела в Кабул. На родине ей грозит смертная казнь5

Стало ли больше после коронавируса сердечно-сосудистых заболеваний? Вот что заметили белорусские врачи2

больш чытаных навін
больш лайканых навін

Посол Сидоренко покончил с собой — не выдержал допросов КГБ27

Посол Сидоренко покончил с собой — не выдержал допросов КГБ

Главное
Все новости →