https://inosmi.ru/20230503/intellekt-262659257.html
Перечислены главные опасности, которые таит в себе искусственный интеллект
Перечислены главные опасности, которые таит в себе искусственный интеллект
Перечислены главные опасности, которые таит в себе искусственный интеллект
Снижение геополитических рисков, связанных с искусственным интеллектом, требует качественного надзора и открытого диалога о его преимуществах и сложностях,... | 03.05.2023, ИноСМИ
2023-05-03T00:22
2023-05-03T00:22
2023-05-03T09:06
радио болгария
наука
искусственный интеллект
риски
/html/head/meta[@name='og:title']/@content
/html/head/meta[@name='og:description']/@content
https://cdnn1.inosmi.ru/img/24705/85/247058519_84:0:1883:1012_1920x0_80_0_0_b75a2264d0f341764d72b00c9c64b9f2.jpg
Силвия ПетроваТри года назад российский президент Владимир Путин сравнил искусственный интеллект с ядерным оружием: "Тот, кто будет обладать такими технологиями, получит преимущество, возможно, даже несравнимое с ядерным оружием". Недавно на вопрос, опасен ли искусственный интеллект, президент США Джо Байден ответил: "Может быть, это еще предстоит выяснить". А в 2019 году в письме, призывающем к "европейскому ренессансу", президент Франции Эммаюуэль Макрон, помимо указания на инвестиции в новые технологии как на способ взять под контроль будущее континента, спросил: "Кто может сказать, что суверенен перед лицом цифровых гигантов?" Теперь их действительно можно назвать геополитическими игроками за пределами национальных государств — порой крупнейшие технологические компании имеют большее влияние, чем многие страны.Читайте ИноСМИ в нашем канале в Telegram"Искусственный интеллект — это преобразующая технология, которая, по мнению многих экспертов, будет универсальной, как интернет или электричество. Крупнейшие компании технологического сектора используют искусственный интеллект. Страны, в которых они базируются — США, Китай и Великобритания, — будут лидировать в экономическом развитии военного потенциала и возможностей экономики в целом. Можно ожидать увеличения разрыва между лидерами ИИ и отстающими с точки зрения их политического влияния, экономического роста, развития и благосостояния. Но даже внутри этих стран, таких как США, будет существовать неравенство между теми, кто может инвестировать в эту технологию и получать от нее выгоду, и теми, кто не может. Однако важно иметь в виду контраргумент о том, что существует постоянная тенденция к „демократизации“ искусственного интеллекта с помощью новых инструментов с открытым исходным кодом и помощников по написанию кода, хотя инновационные компании, разрабатывающие языковые модели (например, ChatGPT) и искусственный интеллект общего назначения, базируются в США и в Китае. Все больше и больше людей, даже не имеющих базовых технических навыков и знаний в области программирования, могут разрабатывать и внедрять собственные системы искусственного интеллекта. Таким образом, можно ожидать, что много мелких игроков будут применять эту технологию, что будет способствовать их экономическому росту", — объяснила Иоланда Ленквист, директор отдела управления и политики ИИ в The Future Society.Радио Болгария: Эксперты прогнозируют, что "производство" искусственного интеллекта, который будет работать на все более мощных компьютерах, станет одним из основных источников власти в будущем. С такой технологией можно будет парализовать противника, заблокировав экономику или оборонную и военную промышленность.Иоланда Ленквист: Между Америкой и Китаем существует соперничество, а конкуренция в технологиях искусственного интеллекта усиливает напряженность и неопределенность. Однако следует отметить, что ученые этих стран часто сотрудничают как в университетах, так и в компаниях — важно, что такой неофициальный исследовательский канал существует. Соединенные Штаты и Европейский Союз также работают над стандартами совместимости и режимами регулирования.— Может ли искусственный интеллект создать конфликт нового типа, особенно когда речь идет о кибербезопасности? Возможности влиять на общественное мнение с помощью манипулятивных постов в социальных сетях и воздействовать на критическую инфраструктуру, такую как электрические сети, транспорт и связь, кажутся безграничными...— Языковые шаблоны позволяют все большему количеству людей, даже неспециалистам, разрабатывать код, который может быть вредоносным — внедрять вирусы или выявлять слабые места в программах. Таким образом, весьма вероятно, что все больше и больше организаций будут совершать кибератаки или целевые фишинговые атаки (направленные на кражу данных) в виде поддельных электронных писем, якобы отправленных вашим банком. Будет увеличиваться количество поддельного фото- и видеоконтента. Готовьтесь получить голосовые сообщения, звучащие как ваши дети, их учителя или как сотрудники банка, которые хотят, чтобы вы назвали пароль. Но это будет сгенерированный голос.— Вопрос регулирования искусственного интеллекта окутан туманом — к нему хотят получить доступ все крупные игроки, чтобы закрепить за собой роль лидера. Надзор и регулирование этой технологии станет важной задачей для международного права и может даже коренным образом изменить дипломатию и геополитику. Следует и возможно ли устанавливать за искусственным интеллектом надзор, чтобы смягчить его негативные последствия?— Конечно! Важно также регулировать развитие искусственного интеллекта — от поставщиков до рынков. В этом процессе существует множество рисков. Мы не можем полагаться на саморегулирование и самоуправление компаний. У многих крупных компаний в этой сфере свои внутренние этические принципы и меры безопасности. Но часто их обходят стороной, чтобы как можно быстрее вывести свою продукцию на рынок — не отставать от конкурентов и увеличивать свою долю рынка. В сфере искусственного интеллекта это называется "гонкой по нисходящей". И здесь внешний игрок в виде регулятора может поднять планку. Многие хотят этого — не получается полагаться друг на друга в саморегулировании, если нет каких-нибудь обязательств.— В Европе о технологических гигантах в основном говорят в контексте того, соблюдают ли они правила европейских институтов и, следовательно, были ли они оштрафованы и платят ли налоги. Но, похоже, не хватает ответа в виде реальных, ощутимых и значимых европейских цифровых гигантов. Одна из причин — самые талантливые программисты едут в США. Кто сейчас выигрывает гонку — США или Китай?— Пока Соединенные Штаты опережают Китай в исследованиях, цитировании в научных статьях и презентациях на конференциях. Но Китай быстро догоняет их во всех этих категориях. Согласно отчету Stanford AI Index 2023, Америка лидирует как по языковым, так и по мультимодальным моделям — в прошлом году она охватила 54%. Но китайские компании приближаются к этому уровню.— Искусственный интеллект — важная тема для будущего человечества. Интересно, что специалисты в этой области придерживаются полярных мнений. Илон Маск был одним из соучредителей OpenAI в 2015 году, но позже покинул совет директоров из-за недопонимания с руководством, в том числе в отношении к мерам безопасности. Он вновь работает над проектом развития искусственного интеллекта, хотя и проявляет скорее пессимизм и беспокойство по поводу этой технологии. Противоположного мнения придерживаются Марк Цукерберг и Тим Кук — их тон скорее успокаивает. Какие самые распространенные заблуждения об искусственном интеллекте Вы бы выделили?— Важно помнить, что технологии будут развиваться быстро, поэтому риски — дезинформация, поддельный контент, предвзятость, дискриминация, кибератаки — будут только усиливаться. Будут и новые, непредсказуемые риски. В будущем у нас будут еще более мощные модели, и их внедрение в общество получает все более широкое распространение — как в государственном, так и в частном секторе. Так что мы ожидаем, что в будущем искусственный интеллект будет использоваться в цифровой инфраструктуре — в оцифровке государственной и частной системы. Но высок риск провала. Искусственный интеллект должен быть стабилен в новых ситуациях и в новых средах — безопасным и без пробелов; это касается в том числе предвзятости, этики и безопасности. Но это маловероятно, ведь исследования не рассматривали эти риски. Сегодня США инвестируют миллиарды долларов в еще более мощные системы искусственного интеллекта, эти деньги можно использовать для того, чтобы сделать существующие системы более безопасными, стабильными, защищенными и этичными. Если не ввести правила управления, я ожидаю все больше и больше сбоев и неудач.Снижение геополитических рисков, связанных с искусственным интеллектом, требует качественного надзора и открытого диалога о его преимуществах, ограничениях и сложностях. С этой технологией связаны два представления: утопичное — "она позволит человечеству стряхнуть с себя мирские заботы и стать более продуктивным", и антиутопичное — "она будет пагубной для экономики". Однако вредно руководствоваться крайностями, рассуждая о чем бы то ни было — ведь искусственный интеллект создают люди. Проблема не в технологии, а в том, какие задачи перед ней ставят ее создатели.
/20230501/chat-bot-262322265.html
/20230424/ii-262436738.html
ИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
2023
ИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
Новости
ru-RU
https://inosmi.ru/docs/about/copyright.html
https://xn--c1acbl2abdlkab1og.xn--p1ai/
ИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
https://cdnn1.inosmi.ru/img/24705/85/247058519_309:0:1658:1012_1920x0_80_0_0_bdaa6a46cb88d1d2e4017c34c91a9d25.jpgИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
ИноСМИ
info@inosmi.ru
+7 495 645 66 01
ФГУП МИА «Россия сегодня»
радио болгария, наука, искусственный интеллект, риски