edgeways.ru
Список форумов
Кулуары
Серьезно о несерьезном и несерьезно о серьезном. Место для культурного отдыха. 
Бенгио, Маск и Возняк призвали приостановить обучение систем ИИ мощнее GPT-4
Пользователь: Александр (IP-адрес скрыт)
Дата: 07, April, 2023 01:18

Вот те на!
Сейчас все на GPT-4 молятся. США по инвестициям в ИИ даже Китай опережают!


Бенгио, Маск и Возняк призвали приостановить обучение систем ИИ мощнее GPT-4
Некоммерческая организация Future of Life опубликовала письмо, в котором глава SpaceX Илон Маск, соучредитель Apple Стив Возняк, филантроп Эндрю Янг и ещё около тысячи исследователей искусственного интеллекта призвали «немедленно приостановить» обучение систем ИИ, «более мощных, чем GPT-4».


В письме говорится, что системы искусственного интеллекта с «человеко-конкурентным интеллектом» могут нести «серьёзные риски для общества и человечества». В нём содержится призыв к лабораториям приостановить обучение на шесть месяцев.

«Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а их риски будут управляемыми», — подчёркивают авторы письма.

Под обращением подписались более 1125 человек, в том числе соучредитель Pinterest Эван Шарп, соучредитель Ripple Крис Ларсен, генеральный директор Stability AI Эмад Мостак, а также исследователи из DeepMind, Гарварда, Оксфорда и Кембриджа. Письмо подписали также тяжеловесы в области искусственного интеллекта Йошуа Бенджио и Стюарт Рассел. Последний также призвал приостановить разработку продвинутого ИИ до тех пор, пока независимые эксперты не разработают, внедрят и проверят общие протоколы безопасности для таких систем ИИ.

В письме подробно описаны потенциальные риски для общества и цивилизации со стороны конкурентоспособных систем искусственного интеллекта в виде экономических и политических потрясений.

Вот полный текст письма:

«Системы искусственного интеллекта, конкурирующие с человеком, могут представлять серьёзную опасность для общества и человечества, как показали обширные исследования и как признали ведущие лаборатории искусственного интеллекта. Как указано в широко одобренных принципах ИИ Asilomar, продвинутый ИИ может запустить глубокие изменения в истории жизни на Земле, и его следует разрабатывать и управлять им с соразмерной тщательностью и ресурсами. К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта увязли в неконтролируемой гонке по разработке и развёртыванию все более мощных "цифровых умов", которые никто — даже их создатели — не могут понять, работу которых не могут прогнозировать или надёжно контролировать.

Современные системы искусственного интеллекта становятся конкурентоспособными в решении общих задач, и мы должны спросить себя: должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и фейками? Должны ли мы автоматизировать все рабочие места, в том числе те, которые потенциально замещаемы ИИ? Должны ли мы развивать "нечеловеческие умы", которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски —управляемыми. Эта уверенность должна быть хорошо обоснована и только расти с расширением потенциальных эффектов влияния таких систем. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что "в какой-то момент может оказаться важным получить независимую оценку, прежде чем приступать к обучению будущих систем, и для самых передовых усилий согласиться ограничить скорость роста вычислений, используемых для создания новых моделей". Мы согласны. Этот момент наступил сейчас.

Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на шесть месяцев обучение систем ИИ более мощных, чем GPT-4. Эта пауза должна быть всеобщей и контролируемой, и в ней должны участвовать все ключевые участники. Если такую паузу нельзя установить быстро, то правительства должны вмешаться и ввести мораторий.

Лаборатории искусственного интеллекта и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки искусственного интеллекта, которые будут тщательно проверяться и контролироваться независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. Это не означает паузу в развитии ИИ в целом, а просто шаг назад от опасной гонки к всё более крупным непредсказуемым моделям "чёрного ящика" с более широкими возможностями.

Исследования и разработки в области искусственного интеллекта должны быть переориентированы на то, чтобы сделать современные мощные современные системы ИИ более точными, безопасными, интерпретируемыми, прозрачными, надёжными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надёжных систем управления ИИ. Эти усилия должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы верификации и водяных знаков, помогающие отличить настоящий контент от сгенерированного и отслеживать утечки моделей; надёжную экосистему аудита и сертификации; ответственность за вред, причиненный ИИ; надёжное государственное финансирование технических исследований безопасности ИИ; хорошо обеспеченные ресурсами институты для преодоления серьёзных экономических и политических потрясений (особенно в демократических режимах), которые вызовет ИИ.

Человечество сможет наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем, мы придём к "лету ИИ", когда будем пожинать плоды, разрабатывать эти системы на благо всех и давать обществу возможность адаптироваться к ним. Общество приостановило использование других технологий с потенциально катастрофическими последствиями. Мы можем применить эту меру и здесь».

Крупные лаборатории искусственного интеллекта, такие как OpenAI, пока не ответили на письмо.

«Письмо не идеально, но его дух правильный: нам нужно замедлиться, пока мы лучше не поймём все риски», — сказал Гэри Маркус, почетный профессор Нью-Йоркского университета, подписавший письмо. — «Системы ИИ могут причинить серьёзный вред... Крупные игроки становятся всё более скрытными в отношении того, что они делают».

OpenAI представила GPT-4 14 марта. Модель способна интерпретировать не только текст, но и изображения. Также она теперь распознаёт схематичные образы, в том числе и нарисованные от руки.

После анонса новой языковой модели OpenAI отказалась публиковать исследовательские материалы, лежащие в её основе. Участники сообщества ИИ раскритиковали это решение, отметив, что оно подрывает дух компании как исследовательской организации и затрудняет воспроизведение её работы другими. Одновременно это затрудняет разработку средств защиты от угроз, исходящих от систем ИИ.

Теги: искусственный интеллектgpt-4
Бенгио, Маск и Возняк призвали приостановить обучение систем ИИ мощнее GPT-4
[habr.com]

Перейти: <>
Опции: ОтветитьЦитировать

Тема Написано Дата
Чат бот ChatGPT и всё, всё, всё Александр 04.02.2023 18:23
Что такое ChatGPT и как им пользоваться в России и Беларуси⁠... Александр 04.02.2023 18:26
КиберДед о ChatGPT | Интервью Александр 09.02.2023 23:59
ChatGPT 3.5 для всех? но не долго Александр 15.05.2023 18:41
Штука реально крутая.(tu) BAPBAP 04.02.2023 23:34
Отв: Начало того конца, которым...(tu)(tu) sezam 05.02.2023 14:43
Отв: Начало того конца, которым...(tu) Виктор Ф. 05.02.2023 17:17
Бенгио, Маск и Возняк призвали приостановить обучение сис... Александр 07.04.2023 01:18
языках программирования Александр 27.02.2023 02:32
Как использовать нейросеть Chat GPT вместо копирайтера? Александр 11.02.2023 22:33
Как использовать AI Midjourney вместо дизайнера? Инструкция. Александр 11.02.2023 22:43
Отв: на самизда sezam 12.02.2023 19:15
YouChat - НЕЙРОСЕТЬ, КОТОРАЯ ОТВЕТИТ НА ЛЮБОЙ ВОПРОС || А... Александр 13.02.2023 01:47
Чепуха это а не аналог. BAPBAP 14.02.2023 00:06
и всё, всё, всё Изюм 19.02.2023 23:05
аналитической компании «Крибрум» Александр 21.02.2023 23:54
Нейросеть snapedit.app удалит даже то, что не удаляется ... Александр 28.02.2023 22:54
Atomic Heart Александр 04.03.2023 19:59
Чат бот ChatGPT - создание книги? Александр 04.03.2023 21:01
OpenAI назвала профессии, которые больше всего подвержены... Александр 25.03.2023 11:14
Отв: ничего не произойдет sezam 25.03.2023 14:10
Крупные американские компании начали массово сокращать пе... Александр 26.03.2023 00:19
Суверенная демократия Александр 04.04.2023 18:55
Интервью с Сэмом Альтманом Эдуард 07.04.2023 17:12
Реальная история создателя Тетрис Александр 09.04.2023 01:44
Отв: Тетрис жив и будет жить! sezam 19.04.2023 21:12
Созданный нейросетью кадр признали лучшим на фотоконкурсе Александр 18.04.2023 16:01
Отв: имхо, зря отказался sezam 19.04.2023 21:11
В Телеграм создан чат бот ChatGPT Эдуард 22.04.2023 02:12
Официальный ChatGPT 4, бесплатно и без регистрации доступ... Александр 23.04.2023 01:21
Отв: Официальный ChatGPT 4, бесплатно и без регистрации д... Эдуард 23.04.2023 03:05
Всё это платное дерьмо, BAPBAP 24.04.2023 18:11
Отв: Всё это платное дерьмо, Эдуард 24.04.2023 18:19
ChatGPT сбежал от своих разработчиков⁠⁠. __Как получить C... Александр 23.04.2023 01:31
ChaosGPT прямо сейчас без устали трудится ради глобальног... Александр 24.04.2023 17:26
Вопрос Эдуард 24.04.2023 20:59
болтунам будет плохо Александр 25.04.2023 14:26
Информационная опасность Эдуард 25.04.2023 16:18
диспут Александр 29.04.2023 19:20
Искус и язычество Michael_Sv 29.04.2023 20:09
ФейЦбук Александр 30.04.2023 12:18
"Крестный отец ИИ" о том, что нас ждет | Выступление Джеф... Александр 11.06.2023 17:49
Мать запретила Илону Маску драться с Марком Цукербергом Александр 23.06.2023 16:49
Доклад Игоря Ашманова о влиянии нейросетей на сферу IT, г... Александр 29.07.2023 21:31
Как ЦРУ создавало Google Александр 29.07.2023 21:45
Нейросеть создала клип на ГИМН СССР Александр 31.10.2023 02:27
Deforum – это инструмент для создания анимационных видеор... Александр 31.10.2023 02:30
Внезапно - нейрость про высадку американцев на Луну McCar 24.11.2023 21:49
Отв: Внезапно - нейрость про высадку американцев на Луну Эдуард 25.11.2023 02:09
Неааа не слыхали McCar 25.11.2023 04:27
Закон парных случаев McCar 25.11.2023 22:29
Начали валить штаты McCar 25.11.2023 07:58
Интересно.. Навигатор 25.11.2023 14:33
Отв: Интересно.. McCar 25.11.2023 14:55
Убить ИИ нельзя сосуществовать с ИИ: хроники вероятного а... Александр 25.12.2023 16:03
Презентация RABBIT R1 | Топовый ИИ-помощник, который СДЕЛ... Александр 27.01.2024 23:29


Ваше имя: 
Ваш email: 
Тема: 
Прикрепить файл
  • Вы можете прикрепить файлы следующих типов:
  • Файлы не могут быть больше, чем
  • ещё 10 файлов может быть прикреплено
Smileys
...
(loading smileys)
Незарегистрированный пользователь должен ввести код, чтобы публиковать сообщение. Действителен только последний показанный код.
Введите код:  Картинка
В онлайне

Гости: 41

This forum powered by Phorum.