Самые популярные новости:
Как отключить автоматические платные подписки?
Эксперты Банка России: биометрия — это удобство и добровольность
«Кванториум» даёт детям шанс получить отличную работу в будущем
Разработка под Android в Ростове: новые возможности от GDG
Сотовые операторы научились имитировать исходящие вызовы
Самый дешёвый мобильный Интернет в Ростове: выгодные тарифы 4G
Что лучше: Honor, Xiaomi или Huawei?
4G в Ростовской области: какой Интернет лучший?
Перенос номера: «уйти», чтобы остаться на лучших условиях?
Цифровое телевидение в смартфоне — без Интернета!
Локальная сеть дома: как настроить так, чтобы не взломали?
Современный кинематограф всё чаще обращается к взаимоотношениям естественного и искусственного интеллекта. Яркими примерами являются фильмы «Из машины», — и «Дитя робота», вышедший в российский прокат этим летом. А первым, как мы помним, был Metropolis 1927 года. Впрочем, ситуация в реальном мире порой не уступает по напряжённости киносюжетам! Об этом свидетельствует доклад «Риски безопасности применений техник искусственного интеллекта», подготовленный экспертами Positive Technologies. И, если коротко, то проблема состоит не в том, что в Интернете уже присутствуют «конструктивный» и «деструктивный» AI (последний используется хакерами), — а в том, что любой из алгоритмов может, по сути, «переметнуться на другую сторону» из-за особенностей обучающей выборки.
Технологии искусственного интеллекта сегодня невероятно популярны. Крупнейшие компании и стартапы наперегонки внедряют AI и машинное обучение по всему миру. Так, по данным Sand Hill Econometrics, наиболее активно искусственный интеллект осваивает торговлю, телеком, финансовые сервисы и высокие технологии (включая разработку новых продуктов и программного обеспечения).
При этом, несмотря на применение в ключевых отраслях экономики, машинное обучение остаётся уязвимым в плане информационной безопасности. Среди множества примеров, приведённых специалистами Positive Technologies, наиболее важным с нашей точки зрения является отсутствие у любой системы доступа к генеральной совокупности данных.
В этом плане искусственный интеллект на этапе обучения похож на человеческого ребёнка — какую обучающую выборку в него заложит окружение (родители, сверстники, школа), таким он и станет в дальнейшем (с поправкой на унаследованные гены — БЗ). Плюс, разумеется, собственный опыт — в виде выявления неявных зависимостей, — которые должны контролироваться на предмет истинности.
Иными словами, искусственный интеллект, как и естественный, нуждается в воспитании. Причём, чем более ответственные задачи ему предстоит решать, тем тщательнее должен быть контроль со стороны родителей- разработчиков.
В предыдущих публикациях, посвящённых искусственному интеллекту, TechnoDrive приводил примеры ошибок AI, вызванных недостатком информации. Например, когда нейросеть в больнице отпускала домой пациентов, одновременно болевших астмой и пневмонией. Причиной было 100% отсутствие осложнений у данной категории в обучающей выборке. В которую забыли включить информацию о назначении врачами дополнительного лечения всем таким пациентам.
Но проблема «неправильного обучения» нейросети может быть заметна не сразу. Ошибки первого и второго рода могут происходить редко и быть незаметны даже на больших интервалах времени. Вопрос лишь в цене такой ошибки, когда она всё-таки случится.
На нынешнем этапе даже крупнейшие игроки рынка советуют разработчикам AI не торопиться с внедрением. Точнее, ограничивать применение машинного обучения теми сферами, где оно действительно необходимо. «Не бойтесь запускать продукт без машинного обучения» — так звучит правило №1, сформулированное Google.
Если же разработчик считает, что в данной ситуации искусственный интеллект — единственный оптимальный вариант, он должен нести личную ответственность за все последствия его решений.
На фоне постоянно снижающегося порога входа в индустрию Data Science это, вероятно, единственный способ обеспечить корректное функционирование ИТ-систем будущего — и соблюдение базовых требований информационной безопасности.
Всё верно, но не секрет, что люди тоже ошибаются. «Венец эволюции» принимает неверные решения из-за переутомления на работе; семейных неурядиц; нарушений сознания, вызванных, скажем, интоксикациями. Кроме того, людям свойственны чисто человеческие «баги», такие как алчность, ревность, зависть или гнев. Понятно, что в подобных случаях принимаются не самые лучшие решения.
Таким образам, перед топ-менеджерами стоит вопрос, кто нанесёт меньше потенциального вреда (и принесёт больше прибыли!) — искусственный интеллект или человек в данной конкретной ситуации?
Хочется верить, что бизнес примет во внимание хотя бы то, что показывают в голливудских фильмах, а не сделает привычную ставку на максимальные доходы.
Полный список новостей TechnoDrive
© 2001-2021 Борис Зубов, contact@technodrive.ru