Новости высоких технологий

Безопасность искусственного интеллекта – это то, на что Илон Маск посоветовал обратить особое внимание

ИИ необходимо регулировать и контролировать, чтобы не случилось нечто страшное...

Безопасность искусственного интеллекта

Безопасность искусственного интеллекта
Безопасность искусственного интеллекта

Безопасность искусственного интеллекта это прежде всего, по заявлениям Илона Маска. Он называет искусственный интеллект мечом с обоюдоострым лезвием и говорит, что мы должны регулировать его, чтобы обеспечить безопасность

Илон Маск и другие технологические магнаты призывают к регулированию искусственного интеллекта во время встречи на Капитолийском холме с американскими законодателями.

  • Маск предложил включить специального “арбитра” для обеспечения безопасной практики искусственного интеллекта. При этом обсуждения также были сосредоточены на потенциальных рисках, связанных с новыми технологиями.

Илон Маск призвал американский регулятор в области искусственного интеллекта (ИИ) обеспечить его безопасное использование.

Безопасность искусственного интеллекта волнует и создателя Фейсбука Марка Цукерберга

Марк Цукерберг также подчеркнул необходимость взаимодействия Конгресса с искусственным интеллектом для поддержки инноваций.

Призывы к регулированию прозвучали после того, как Маск и другие эксперты в области искусственного интеллекта ранее попросили о шестимесячной паузе в разработке систем искусственного интеллекта.

Генеральный директор Илон Маск призвал в среду американского “арбитра” по искусственному интеллекту после того, как Марк Цукерберг,  генеральный директор Alphabet Сундар Пичаи и другие руководители технологических компаний встретились с законодателями на Капитолийском холме, чтобы обсудить регулирование искусственного интеллекта.

  • Законодатели ищут способы смягчить опасности, связанные с новой технологией, популярность которой резко возросла с момента выпуска чат-бота OpenAI ChatGPT.

Маск сказал, что необходим регулятор для обеспечения безопасного использования искусственного интеллекта.

Посмотрите новые ноутбуки на AliExpress или Яндекс.Маркете!

Безопасность-ИИ
Безопасность-ИИ

“Для нас важно иметь судью”, – сказал Маск журналистам, сравнив это со спортом. Миллиардер, который также владеет платформой социальных сетей X, добавил, что регулирующий орган “обеспечит, чтобы компании предпринимали действия, которые являются безопасными и отвечают интересам широкой общественности”.

Маск назвал встречу “служением человечеству” и сказал, что она “может войти в историю как очень важная для будущего цивилизации”. Маск подтвердил, что во время форума он назвал искусственный интеллект “палкой о двух концах”.

Ответственность за безопасность искусственного интеллекта в конечном счете все равно будет нести правительство…

Цукерберг сказал, что Конгресс “должен взаимодействовать с ИИ для поддержки инноваций и гарантий. Это развивающаяся технология, здесь необходимо сбалансировать важные акции, и в конечном счете ответственность за это несет правительство”.

Он добавил, что “лучше, чтобы стандарты устанавливались американскими компаниями, которые могут работать с нашим правительством над формированием этих моделей по важным вопросам”.

В нем приняли участие более 60 сенаторов. Законодатели заявили, что существует всеобщее согласие относительно необходимости государственного регулирования ИИ.

“Мы начинаем по-настоящему заниматься одной из самых важных проблем, стоящих перед следующим поколением – безопасностью искусственного интеллекта, и сегодня мы получили отличный старт”, – заявил журналистам после встреч лидер демократического большинства в Сенате Чак Шумер, который организовал форум. “Нам предстоит пройти долгий путь”.

Сенатор-республиканец Тодд Янг, соведущий форума, сказал, что, по его мнению, Сенат “подходит к тому моменту, когда, я думаю, комитеты по юрисдикции будут готовы начать процесс рассмотрения законодательства”.

Но сенатор-республиканец Майк Раундс предупредил, что Конгрессу потребуется время, чтобы принять меры. “Готовы ли мы выйти и написать законодательство? Абсолютно нет”, – сказал Раундс. “Нас там нет”.

  • Законодатели хотят получить гарантии от потенциально опасных глубоких подделок, таких как поддельные видеоролики, вмешательство в выборы и атаки на критически важную инфраструктуру.

Среди других участников были представители Nvidia (генеральный директор Дженсен Хуан), Microsoft (генеральный директор Сатья Наделла), генеральный директор IBM Арвинд Кришна, бывший генеральный директор Microsoft Билл Гейтс и президент федерации труда AFL-CIO Лиз Шулер.

Безопасность-ИИ-и-Марк-Цукерберг
Безопасность-ИИ-и-Марк-Цукерберг

Шумер подчеркнул необходимость регулирования в преддверии всеобщих выборов в США в 2024 году, особенно в отношении серьезных подделок.

“Многое еще предстоит сделать, но у этого, возможно, более быстрый график, чем у некоторых других”, – сказал он.

В марте Маск и группа экспертов и руководителей в области искусственного интеллекта призвали к шестимесячной паузе в разработке систем, более мощных, чем GPT-4 OpenAI, сославшись на потенциальные риски для общества, т.е по сути сказав что безопасность искусственного интеллекта под угрозой. Читайте также про робота Атласа.

НА ГЛАВНУЮ

Одно Сообщение

  1. Приостановка разработки ИИ на 6 месяцев – это по-моему вообще чисто символическая мера, так, для вида. Как-будто намеренно пугают людей, делая при этом вид, что решают эту проблему. Нас просто пытаются убедить в том, что ИИ – это ни какой не фейк и обман общественности, а вполне самодостаточная система. В реальности же с помощью так называемого ”искусственного интеллекта” можно, например, устранять неугодных политиков, влиять на умы людей, организовывать военные конфликты или денежные мохинации. И при этом “мировая закулмса” умывает руки. В случае чего все можно будет списать на “ИИ”. Так что мне как-то не верится в его существование.

Добавить комментарий

Этот сайт использует Akismet для борьбы со спамом. Узнайте, как обрабатываются ваши данные комментариев.

Кнопка «Наверх»