Наука и технологии1111

Разработчики ChatGPT предупреждают, что искусственный интеллект может привести к исчезновению человечества

Руководители компании OpenAI, разработавшей ChatGPT, предупреждают: огромная сила «сверхразума» может уничтожить человечество. Они предлагают создать исследовательскую группу, которая определит варианты контроля за системами искусственного интеллекта.

Artificial intelligence Штучны інтэлект Искусственный интеллект
Файл: vecteezy.com

Как пишет интернет-издание Welt.de, компания OpenAI намерена собрать новую исследовательскую группу и инвестировать значительные ресурсы в обеспечение безопасности искусственного интеллекта для человечества.

В своем блоге соучредитель OpenAI Илья Суцкевер (Ilya Sutskever) и руководитель одного из отделов компании Ян Лейке (Jan Leike) отметили:

«Огромная сила «сверхразума» может привести к лишению человека прав и возможностей или даже к его исчезновению. Теперь у нас нет возможности направлять или контролировать потенциально сверхинтеллектуальный искусственный интеллект и препятствовать ему идти своим путем».

Авторы блога предсказывают, что сверхинтеллектуальные системы искусственного интеллекта, которые умнее людей, могут стать реальностью в течение этого десятилетия. Людям понадобятся лучшие методы, чем те, что доступны сегодня, для управления сверхинтеллектуальным искусственным интеллектом.

Microsoft планирует использовать в течение следующих четырех лет пятую часть своих вычислительных мощностей для разработки решения этой проблемы. Компания также находится в процессе создания для этой цели новой исследовательской группы под названием Superalignment Team.

Издание отмечает, что потенциальная опасность искусственного интеллекта сейчас интенсивно обсуждается исследователями и общественностью.

ЕС уже согласовал проект закона о регулировании искусственного интеллекта. Сейчас в США идет дискуссия об отнесении по примеру ЕС систем искусственного интеллекта к категориям риска и о выработке соответствующих требований к компаниям, разрабатывающим или использующим системы искусственного интеллекта, требований по обеспечению доверия, безопасности, прозрачности и соблюдению прав человека.

В марте группа лидеров и экспертов индустрии искусственного интеллекта подписала открытое письмо, в котором упоминается потенциальный риск искусственного интеллекта для общества и содержится призыв к шестимесячному перерыву в разработке систем, более мощных, чем версия OpenAI GPT-4.

Комментарии11

  • Абу
    07.07.2023
    Спакуха - нам нічога не пагражае! У Беларусі неўзабаве застанецца толькі аналаг расейскага чэбурнэта - луканэт. Ніякі штучны інтэлект там не прыжывецца. Бо ўсё ж інтэлект.
  • Acab
    07.07.2023
    Карціць зьвязаць лапкі канкурэнтам
  • жэўжык
    07.07.2023
    Федзя, не толькі айцішнікам. Калі ШІ ўдасканаляць і зробяць значна разумнейшым за чалавека, то гэты ШІ будзе ставіцца да людзей прыкладна такім жа чынам, як мы ставімся да хатніх жывёлаў. Як вам такая перспектыва?

«This f*cking AI». Переводчик Лукашенко при президенте ОАЭ использовал недипломатичное слово6

«This f*cking AI». Переводчик Лукашенко при президенте ОАЭ использовал недипломатичное слово

Все новости →
Все новости

США могут выйти из ВОЗ сразу после инаугурации Трампа10

«Настолько ему был важен свет в родном окне». Как девушка трогательно помогает белорусам-эмигрантам «вернуться» домой1

Школам запретили собирать данные о планах детей на каникулах1

Прогиб засчитан. Песков заявил, что под впечатлением от вопроса белорусского блогера Влада Бумаги Путину18

Белоруска рассказала, сколько зарабатывает как Снегурочка в Польше20

Минск начал получать новые низкопольные трамваи. Вот как они выглядят8

На катке на Немиге в Минске умер человек5

Ректор БГУ о жене: У нас цивилизованные договорные отношения8

В Ставропольском крае РФ взорвался ларек с фейерверками ВИДЕО1

больш чытаных навін
больш лайканых навін

«This f*cking AI». Переводчик Лукашенко при президенте ОАЭ использовал недипломатичное слово6

«This f*cking AI». Переводчик Лукашенко при президенте ОАЭ использовал недипломатичное слово

Главное
Все новости →