Как опытный энтузиаст технологий и житель Калифорнии более двух десятилетий, я глубоко заинтригован продолжающимися дебатами вокруг SB 1047 — законопроекта о безопасности ИИ. Став свидетелем стремительного взлета Кремниевой долины и ее влияния на нашу повседневную жизнь, я не могу не испытывать чувства беспокойства по поводу потенциальных опасностей, которые бесконтрольное развитие ИИ может представлять для всех нас.
Присоединяйся к каналу CryptoMoon! Самые свежие и актуальные новости мира криптовалют ждут тебя! Не упусти шанс быть в курсе всех трендов и инсайдов. 👇
CryptoMoon Telegram
Как кинокритик, я нахожусь в центре жарких дебатов по поводу предлагаемого законопроекта, призванного защитить калифорнийцев от потенциальных катастроф, вызванных технологией искусственного интеллекта. Технологическое сообщество было в смятении после одобрения комитета на этой неделе, но с поправками, направленными на то, чтобы сгладить ситуацию в Кремниевой долине.
Законопроект SB 1047 сенатора Скотта Винера, новаторский законопроект из Сан-Франциско, планируется вынести на голосование в законодательном собрании штата позднее в этом месяце. Если ему удастся пройти через Законодательное собрание, губернатору Гэвину Ньюсому придется принять решение о том, подписывать или наложить вето на этот исторический закон.
Сторонники законопроекта утверждают, что он направлен на создание механизмов безопасности, которые не позволят сложным системам искусственного интеллекта вызывать катастрофические события, такие как неожиданное отключение электросети. Они обеспокоены тем, что темпы технологического прогресса опережают возможности людей эффективно им управлять и регулировать.
Законодатели работают над тем, чтобы побудить разработчиков использовать технологии этично, давая генеральному прокурору штата право применять наказания в случае непосредственной опасности или вреда. Предлагаемый закон также требует, чтобы разработчики имели возможность напрямую деактивировать модели ИИ, которыми они управляют, в случае каких-либо сбоев.
Я, например, убежденный сторонник, который считает, что некоторые технологические компании, такие как Meta Platforms, владелец Facebook, и такие политики, как член палаты представителей США Ро Ханна (демократ от Фремонта), утверждают, что этот законопроект может помешать инновациям. Некоторые критики выражают свою обеспокоенность, заявляя, что он концентрируется на отдаленных катастрофических сценариях, а не на насущных проблемах конфиденциальности и дезинформации. Однако существуют и другие законопроекты, направленные непосредственно на решение этих же проблем.
1047 SB входит в число примерно 50 законопроектов, посвященных искусственному интеллекту (ИИ), которые были предложены в законодательном собрании штата, поскольку растет обеспокоенность по поводу его влияния на занятость, дезинформацию и общественную безопасность. Пока политики стремятся установить правила для этого быстро расширяющегося сектора, некоторые компании и специалисты прибегают к судебным искам против фирм, занимающихся искусственным интеллектом, пытаясь заставить суды определить границы.
Как страстный киноман, проживающий в самом сердце Сан-Франциско — города, который взращивает новаторские стартапы в области искусственного интеллекта, такие как OpenAI и Anthropic, — я оказался в гуще интригующей дискуссии.
В четверг он существенно скорректировал свой законопроект, внеся изменения, которые, по мнению некоторых, сделают закон менее строгим, но повысят его шансы на одобрение Ассамблеей.
Поправки убрали из законопроекта штраф за лжесвидетельство и изменили юридические стандарты для разработчиков в отношении безопасности их передовых моделей искусственного интеллекта.
Вместо создания нового государственного органа, известного как Frontier Model Division, для проверки мер безопасности, от предложенного плана отказались. Согласно первоначальному предложению, разработчики должны были направить свои планы безопасности в это вновь созданное подразделение. Однако в обновленной версии разработчики теперь будут сообщать о мерах безопасности непосредственно генеральному прокурору.
«Кристиан Гроуз, профессор политологии и государственной политики в Университете Южной Калифорнии, выразил уверенность, что некоторые изменения потенциально могут увеличить шансы на одобрение».
Сторонники законопроекта представляют некоторые технологические круги, такие как Центр безопасности ИИ и Джеффри Хинтон, которого часто называют «отцом-основателем» ИИ. Однако другие специалисты в этой области выражают обеспокоенность тем, что это может негативно повлиять на процветающий технологический сектор Калифорнии.
8 представителей Калифорнии, в том числе Ханна, Зои Лофгрен (из Сан-Хосе), Анна Г. Эшу (из Менло-Парка), Скотт Питерс (из Сан-Диего), Тони Карденас (из Пакоймы), Ами Бера (из Элк-Гроув), Нанетт Диас. Барраган (из Сан-Педро) и Лу Корреа (из Санта-Аны) в четверг написали письмо Ньюсому, призывая его отклонить законопроект, если он дойдет до Ассамблеи штата.
В контексте Винера в Сан-Франциско он сталкивается с серьезной дилеммой: с одной стороны, есть эксперты, выступающие за регулирование ИИ из-за потенциальных опасностей, а с другой, есть те, чье существование зависит от исследований ИИ. Гроуз отметил, что это может стать критическим моментом в карьере Винера, поскольку он осознает как преимущества, так и риски, связанные с ИИ.
Некоторые технологические гиганты заявляют, что они открыты для регулирования, но не согласны с подходом Винера.
В недавней беседе с редакцией L.A. Times Кевин МакКинли, менеджер по государственной политике Меты, выразил согласие с точкой зрения Винера на законопроект и его цели. Однако он выразил опасения по поводу потенциального влияния законопроекта на развитие искусственного интеллекта, особенно в Калифорнии, и особенно на инновации с открытым исходным кодом.
Одна из фирм, Meta, предлагает ассортимент моделей искусственного интеллекта с открытым исходным кодом под названием Llama, что позволяет разработчикам создавать на их основе свои конкретные проекты. Последняя версия, Llama 3, была выпущена Meta в апреле, и, согласно заявлению технологического гиганта, ее уже скачали более 20 миллионов раз.
Мета предпочла не комментировать недавние поправки. Ранее McKinsey отмечала, что SB 1047 «довольно сложно пересматривать и вносить изменения».
Представитель Ньюсома заявил, что его офис обычно не комментирует законопроекты, находящиеся на рассмотрении.
Согласно заявлению, сделанному Иззи Гардоном по электронной почте, губернатор намерен оценить законопроект с учетом его сильных сторон, если он будет представлен ему на рассмотрение.
Anthropic, компания в области искусственного интеллекта из Сан-Франциско, известная своим помощником по искусственному интеллекту Клодом, намекнула, что может поддержать законопроект, если в него будут внесены изменения. В письме от 15 июля члену Ассамблеи Баффи Уикс (демократ от Окленда) Хэнк Демпси, государственный и политический руководитель Anthropic, предложил поправки. Эти изменения включают в себя перефразирование законопроекта, чтобы подчеркнуть ответственность компаний, вызывающих катастрофы, вместо обеспечения соблюдения правил до того, как будет нанесен ущерб.
Винер заявил, что в поправках учтены опасения Anthropic.
По мнению Винера, можно одновременно способствовать прогрессу и безопасности. Это не обязательно должны быть противоречивые цели.
Остается неясным, повлияют ли предлагаемые изменения на позицию Anthropic в отношении законодательства. В недавнем заявлении Anthropic упомянул, что они рассмотрят новый «текст законопроекта по мере его опубликования», что, как ожидается, произойдет в четверг.
Рассел Уолд, заместитель директора Центра человеко-ориентированного искусственного интеллекта (HAI) Стэнфордского университета, подчеркнул, что он по-прежнему выступает против предложенного закона. Это учреждение занимается продвижением исследований в области ИИ и разработкой политики.
В своем заявлении Уолд отметил, что недавние изменения, похоже, отдают приоритет внешнему виду над реальным содержанием. Похоже, что эти изменения призваны избежать разногласий между ключевыми компаниями, занимающимися искусственным интеллектом, но они не решают подлинные опасения, исходящие от академических учреждений и сообществ открытого исходного кода.
Достижение хрупкого равновесия представляет собой проблему для политиков, поскольку они должны учитывать проблемы, связанные с искусственным интеллектом, одновременно способствуя росту технологической отрасли своего штата.
После заседания комитета Уикс заявил: «Мы все работаем над созданием нормативно-правовой базы, которая обеспечивает необходимые гарантии, не препятствуя развитию ИИ, включая его потенциал для стимулирования экономического развития».
Смотрите также
- Где найти тайник Нестора в Сталкере 2 Сердце Чернобыля
- Red Dead Redemption 1: каждая лошадь в порядке от худшей к лучшей
- Хронология романа артиста балета Владимира Шклярова и Марии Ширинкиной
- Акции ENPG. Эн+: прогноз акций.
- Аналитика криптовалюты DOGE: прогноз движения цен Dogecoin
- Кобра Кай: Что случилось с мистером Мияги и Секай Тайкай в 1940-х годах
- Аналитика криптовалюты BRETT: прогноз движения цен Brett
- Концовка 8-го сезона «Чужестранки» изменит концовку книги, подтверждает автор сериала
- План Амбессы во втором сезоне «Тайной тайны»: что она задумала
- 10 лучших сборок для 6-го сезона Diablo 4 (список уровней)
2024-08-17 02:01