«Детская школа искусств» Мошенского муниципального района

Окружающий мир 3 класс рабочая тетрадь дмитриева казаков ответы: ГДЗ Oкружающий мир 3 кл. Дмитриева Рабочая тетрадь 2023

Пауза Гигантские эксперименты с ИИ: открытое письмо

Все открытые письма

Мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ, более мощных, чем GPT-4.

Подписи

10146

Добавьте свою подпись

Опубликовано

22 марта 2023 г. [1] и подтверждено ведущими лабораториями искусственного интеллекта. [2] Как указано в широко одобренных Принципах искусственного интеллекта Asilomar, Усовершенствованный искусственный интеллект может представлять собой глубокое изменение в истории жизни на Земле, и его следует планировать и управлять им с соразмерным вниманием и ресурсами . К сожалению, такого уровня планирования и управления не существует, даже несмотря на то, что в последние месяцы лаборатории искусственного интеллекта застряли в неконтролируемой гонке по разработке и развертыванию все более мощных цифровых умов, которые никто — даже их создатели — не может понять. прогнозировать или надежно контролировать.

Современные системы искусственного интеллекта теперь становятся конкурентоспособными с людьми при выполнении общих задач, [3] и мы должны спросить себя: Должны ли мы позволять машинам наводнять наши информационные каналы пропагандой и ложью? Должны ли мы автоматизировать все задания, в том числе выполняющие? Должны ли мы развивать нечеловеческие разумы, которые могли бы в конечном итоге превзойти нас численностью, перехитрить, устареть и заменить нас? Должны ли мы рискнуть потерять контроль над нашей цивилизацией? Такие решения не должны делегироваться неизбранным лидерам технологий. Мощные системы искусственного интеллекта следует разрабатывать только после того, как мы будем уверены, что их эффекты будут положительными, а связанные с ними риски будут управляемыми. Эта уверенность должна быть хорошо обоснована и возрастать с величиной потенциальных эффектов системы. В недавнем заявлении OpenAI относительно общего искусственного интеллекта говорится, что «В какой-то момент может оказаться важным получить независимую оценку, прежде чем начинать обучение будущих систем, а для самых продвинутых усилий согласиться ограничить скорость роста вычислений, используемых для создания новые модели». Мы согласны. Этот момент сейчас.

Поэтому мы призываем все лаборатории ИИ немедленно приостановить как минимум на 6 месяцев обучение систем ИИ мощнее GPT-4 . Эта пауза должна быть общедоступной и поддающейся проверке, и в ней должны участвовать все ключевые участники. Если такую ​​паузу нельзя ввести быстро, правительства должны вмешаться и ввести мораторий.

Лаборатории ИИ и независимые эксперты должны использовать эту паузу для совместной разработки и внедрения набора общих протоколов безопасности для усовершенствованного проектирования и разработки ИИ, которые тщательно проверяются и контролируются независимыми внешними экспертами. Эти протоколы должны гарантировать, что системы, придерживающиеся их, вне всяких разумных сомнений безопасны. [4] Это означает, что , а не , означает паузу в развитии ИИ в целом, просто шаг назад от опасной гонки к еще более крупным непредсказуемым моделям черного ящика с появляющимися возможностями.

Исследования и разработки в области ИИ должны быть переориентированы на то, чтобы сделать современные мощные современные системы более точными, безопасными, интерпретируемыми, прозрачными, надежными, согласованными, заслуживающими доверия и лояльными.

Параллельно разработчики ИИ должны работать с политиками, чтобы значительно ускорить разработку надежных систем управления ИИ. Они должны как минимум включать: новые и дееспособные регулирующие органы, занимающиеся вопросами ИИ; надзор и отслеживание высокопроизводительных систем искусственного интеллекта и больших пулов вычислительных мощностей; системы происхождения и водяных знаков, помогающие отличить настоящие от синтетических и отслеживать утечки моделей; надежная экосистема аудита и сертификации; ответственность за вред, причиненный ИИ; надежное государственное финансирование технических исследований безопасности ИИ; и хорошо обеспеченные ресурсами институты для преодоления серьезных экономических и политических потрясений (особенно демократии), которые вызовет ИИ.

Человечество может наслаждаться процветающим будущим с ИИ. Добившись успеха в создании мощных систем ИИ, мы теперь можем наслаждаться «летом ИИ», во время которого мы пожинаем плоды, разрабатываем эти системы на благо всех и даем обществу возможность адаптироваться. Общество поставило на паузу другие технологии с потенциально катастрофическими последствиями для общества. [5]   Мы можем сделать это здесь. Наслаждаемся долгим летом с искусственным интеллектом, а не бросаемся в осень неподготовленными.

Мы подготовили несколько часто задаваемых вопросов в ответ на вопросы и обсуждения в СМИ и других источниках. Вы можете найти их здесь. 9

12 апреля 2023 г. 003

Бендеры, Э. М., Гебру Т., Макмиллан-Мейджор А. и Шмитчелл С. (2021 г., март). Об опасностях стохастических попугаев: могут ли языковые модели быть слишком большими?🦜. В материалах конференции ACM 2021 г. о справедливости, подотчетности и прозрачности (стр. 610-623).

Бостром, Н. (2016). Сверхразум. Издательство Оксфордского университета.

Бакнелл, Б.С., и Дори-Хакоэн, С. (2022, июль). Текущий и ближайший ИИ как потенциальный фактор экзистенциального риска. В Трудах конференции AAAI/ACM 2022 года по искусственному интеллекту, этике и обществу (стр. 119–129).

Карлсмит, Дж. (2022). Является ли стремящийся к власти ИИ экзистенциальным риском? Препринт arXiv arXiv: 2206.13353.

Кристиан Б. (2020). Проблема согласования: машинное обучение и человеческие ценности. Нортон и компания.

Коэн, М. и др. (2022). Усовершенствованные искусственные агенты вмешиваются в процесс предоставления вознаграждения. Журнал AI 43 (3) (стр. 282–293).

Элунду Т. и др. (2023). GPT — это GPT: ранний взгляд на потенциал воздействия больших языковых моделей на рынок труда.

Хендрикс, Д., и Мажейка, М. (2022). X-анализ рисков для исследований ИИ. Препринт arXiv arXiv: 2206.05862.

Нго, Р. (2022). Проблема выравнивания с точки зрения глубокого обучения. Препринт arXiv arXiv: 2209.00626.

Рассел, С. (2019). Совместимость с человеком: искусственный интеллект и проблема управления. Викинг.

Тегмарк, М. (2017). Жизнь 3.0: Быть человеком в эпоху искусственного интеллекта. Кнопф.

Weidinger, L. et al (2021). Этические и социальные риски вреда от языковых моделей. Препринт arXiv arXiv: 2112.04359.

[2]

Ordonez, V. et al. (2023, 16 марта). Генеральный директор OpenAI Сэм Альтман говорит, что ИИ изменит общество, и признает риски: «Немного боится этого». Новости АВС.

Перриго, Б. (2023, 12 января). Генеральный директор DeepMind Демис Хассабис призывает к осторожности в отношении ИИ. Время.

[3]

Bubeck, S. et al. (2023). Искры общего искусственного интеллекта: ранние эксперименты с GPT-4. архив: 2303.12712.

OpenAI (2023 г.). Технический отчет GPT-4. архив: 2303.08774.

[4]

Существует множество юридических прецедентов — например, широко принятые Принципы ИИ ОЭСР требуют, чтобы системы ИИ «функционировали должным образом и не представляли необоснованного риска для безопасности».

[5]

Примеры включают клонирование человека, модификацию зародышевой линии человека, исследования по приобретению функции и евгенику.

Добавьте свое имя в список

Продемонстрируйте свою поддержку этого открытого письма, добавив свою собственную подпись в список:

Исправления подписи

Если вы считаете, что ваша подпись была добавлена ​​по ошибке, или у вас есть другие опасения по поводу ее внешнего вида, пожалуйста, свяжитесь с нами по адресу письма@futureoflife.org.

Подписавшиеся

Список подписантов сократился из-за высокого спроса

Мы собрали более 30 000 подписей и надеемся, что подписавшиеся проявят терпение, поскольку наш процесс проверки пытается наверстать упущенное. Все высококлассные подписи в верхней части списка проверяются независимо и напрямую.

  • А
  • Б
  • С
  • Д
  • Э
Подробнее

Закрыть

Как работает проверка?

Подтвержденные подписи — это подписи, которые мы предприняли один или несколько дополнительных шагов для подтверждения их подлинности:

Прямой контакт — мы связались с этим человеком, чтобы убедиться, что он подписал письмо.
URL-адрес объявления — Это лицо сделало публичное заявление о подписании открытого письма, которое можно просмотреть в Интернете.

Все опубликованные подписи, «подтвержденные» или нет, подлежат нескольким формам проверки: проверка электронной почты, фильтры спама и дубликатов, а также проверка членом нашей группы проверки данных.

ОТКРЫТЫЕ ПИСЬМА

Похожие сообщения

Если вам понравилось это, вам также могут понравиться:

Наши открытые письма

Подписанты

998

Открытое письмо против безрассудной ядерной эскалации и использования 9 0067

Отвратительная война на Украине может перерастет во всеобщий ядерный конфликт между НАТО и Россией, который станет величайшей катастрофой в истории человечества. Необходимо сделать больше, чтобы предотвратить такую ​​эскалацию.

Тейлор Джонс

18 октября 2022 г.

Подписанты

Закрыто

Форсайт в регулировании ИИ Открытое письмо

Появление искусственного интеллекта (ИИ) обещает кардинальные изменения в наших экономических и социальных структурах, а также в повседневной жизни […]

Анна Елизарова

14 июня, 2020

Подписавшиеся стороны

276

Открытое письмо по автономному оружию: Глобальное сообщество здравоохранения

Учитывая наше обязательство не наносить вреда, мировое сообщество здравоохранения имеет долгую историю успешной адвокации против негуманного оружия, а Всемирная и Американская медицинские ассоциации призвал к запрету ядерного, химического и биологического оружия.

Добавить комментарий