Искусственный интеллект (ИИ) в настоящее время является наиболее активным фронтом глобальных инноваций в области цифровых технологий, новым направлением цифровой экономики и новой горячей точкой международной конкуренции. Но как справиться с вызовами, которые он принес, чтобы создать безопасный и надежный ИИ, вызывает серьезную озабоченность у всех.
Представители ведущих интернет-компаний, включая Baidu, Alibaba, 360 Security Group, ученые и правительственные чиновники собрались в Нишане, месте рождения Конфуция в Цюйфу в Восточном Китае, в попытке найти ответ.
Искусственный интеллект, как и другие цифровые технологии, — палка о двух концах. Хотя это дает нам более продвинутые, автоматизированные и интеллектуальные способы работы и жизни, оно также создает проблемы для безопасности, сказал Чжоу Хунъи, основатель 360 Security Group, Global Times на Всемирной интернет-конференции Nishan Dialogue.
Независимо от того, имеет ли модель ИИ уязвимости или ее легко атаковать или ввести в заблуждение, а также могут ли данные модели быть утеряны или заражены во время обучения, — все это возможные проблемы безопасности, не говоря уже о ее опасностях, когда она используется в критических областях, таких как финансы, право и автономные транспортные средства, сказал Чжоу.
Перед лицом проблем безопасности, связанных с разработкой крупномасштабных роботов, Чжоу считает, что ключом к достижению безопасного и надежного применения ИИ является позиционирование роботов в качестве помощников предприятий и сотрудников или в качестве «второго пилота», что позволяет люди должны играть решающую роль в цикле принятия решений.
По словам Чжоу, ИИ может предоставлять предложения и отчеты, но окончательное решение должны принимать люди, и он не должен напрямую обходить людей или выходить за рамки различных бизнес-систем для принятия решений.
Выступая на конференции, генеральный директор и председатель Alibaba Чжан Юн сказал, что технология искусственного интеллекта должна повышать благосостояние людей. Какими бы мощными ни становились машины, создающие их люди всегда должны быть сильнее, лучше и мудрее.
Каждая эпоха имеет свои цивилизационные характеристики, но каков сегодня дух цифровой цивилизации? Чжан сказал, что конфуцианство отстаивает важность взращивания нравственности перед достижением успеха. Соответственно, в развитии искусственного интеллекта технический прогресс должен соответствовать социальным нормам и должен приносить больше пользы человечеству.
Угрозы технологий ИИ носят не только технический или юридический характер, но могут быть и социальными, поскольку им может не хватать справедливости или равенства. Таким образом, управление рисками, связанными с ИИ, будет более сложным и потребует дополнительных средств, отличных от обычного подхода к управлению рисками кибербезопасности, заявил на конференции Global Times Уолтер Фуми, председатель CEN-CENELEC JTC 13 Cybersecurity and Data Protection.
Фуми сказал, что ЕС находится в авангарде определения и регулирования своего ИИ, но помимо европейского подхода существует множество других доступных структур. Он призвал отрасль найти точки соприкосновения, а не создавать сотни различных законодательных актов в области ИИ, которые были бы дублирующими и дублирующими друг друга.
Но Гонг Ке, исполнительный директор Китайской академии стратегии развития искусственного интеллекта нового поколения, сказал Global Times, что на самом деле есть некоторые точки соприкосновения между законопроектом ЕС и аналогичными правилами в Китае и США. Разница заключается в том, как каждая страна формулирует свои правила и делает акцент на различных аспектах, сказал Гонг, призывая делиться и обмениваться различными моделями ИИ стран, такими как алгоритм конфиденциальности, чтобы достичь большего общего.
Законодатели ЕС недавно сделали шаг к принятию знаменательного закона об использовании ИИ, первого в мире всеобъемлющего закона об ИИ, и, как сообщают СМИ, ожидается, что будут достигнуты окончательные соглашения по конкретным правилам.
Гонг сказал, что закон ЕС будет важным ориентиром для других стран в регулировании их ИИ, но поскольку страны ускоряют разработку ИИ и пытаются выяснить, как замедлить быстро развивающийся ИИ, приоритет должен заключаться в поиске баланса, поскольку правила будут напрямую повлиять на будущее развития индустрии ИИ.
«Надеемся, что законодательство не создаст «особую ситуацию» для Европы» или, скажем, в ЕС будут гораздо более строгие правила, чем в других частях мира, — сказал Фуми Global Times, объяснив, что это было бы досадно и, безусловно, помешало бы развитие отрасли, приводящее к тому, что некоторые стартапы перемещаются в другие места.
Для Китая Чжоу считает, что индивидуальные GPT станут возможным решением, которое сделает процессы принятия решений более эффективными, безопасными и надежными, а также повысит производительность в различных отраслях. В будущем в Китае будет не только одна большая модель ИИ, но и каждое государственное учреждение, предприятие и даже каждый человек будут иметь свою собственную «индивидуальную GPT», — сказал Чжоу Global Times.
Эти индивидуальные модели ИИ будут обладать как общей способностью понимать человеческие знания и взаимодействовать с людьми, так и способностью использовать отраслевые знания и индивидуальные знания, уникальные для предприятий и правительств, для расширенного обучения и тонкой настройки. С этой точки зрения это решит проблемы безопасности и надежности, сказал Чжоу.
Представители ведущих интернет-компаний на конференции осознают важность ИИ в цифровой экономике, надеясь изменить ситуацию в гонке ИИ.
По словам Чжана на конференции, чат-бот Tongyi Qianwen AI, разработанный Alibaba, получил большой энтузиазм и отзывы во всех сферах жизни, особенно в отрасли: более 100 000 корпоративных пользователей подали заявки на доступ, охватывая почти все новые и традиционные отрасли.
Генеральный директор Baidu Робин Ли сказал, что следующий рубеж в развитии моделей искусственного интеллекта — это не только имитация людей и выполнение их «предписанных действий», но и помощь людям в исследовании и открытии неизвестных областей и преодолении ограничений, которые люди не смогли преодолеть. преодолеть в прошлом.