Когда мы рисуем картину продвинутого ИИ, мы можем представить себе машины, которые «учатся», подобно тому, как малыш может учиться. Мы представляем, что они «думают» или «приходят к выводам» подобно тому, как мы это делаем. Даже термин «нейронные сети» - алгоритм, смоделированный по принципу человеческого мозга, - поднимает образ машины, подобной мозгу, и принимает решения. Однако мысль о том, что искусственный интеллект работает так же, как человеческий мозг, может вводить в заблуждение и даже опасно, утверждает Дэвид Уотсон из Оксфордского интернет-института и Института туризма Алана.
Одним из самых популярных и мощных видов машинного обучения сегодня является нейронная сеть. Название происходит от идеи нейронов и синапсов в мозге. В нейронной сети вход подается в несколько слоев «нейронов». Вывод генерируется каждым слоем, передаваясь для ввода в следующий слой. Нейронные сети, которые содержат большое количество слоев, часто называют глубокими нейронными сетями (DNN). Нейронные сети превратились в ворчание Google Translate , распознавания лиц Facebook и Siri . Помимо этого, нейронные сети также могут рисовать в стиле Ван Гога или даже спасать китов.
Без сомнения, эти алгоритмы являются мощными, но думать, что они «думают» и «учатся» так же, как люди, было бы неправильно, говорит Уотсон. Есть много различий, и он выделяет три.
Первое - ДНН легко обмануть. Например, представьте, что у вас есть изображение банана. Нейронная сеть успешно классифицирует его как банан. Но возможно создать генеративную противоборствующую сеть, которая может обмануть ваше DNN. Добавляя небольшое количество шума или другого изображения помимо банана, ваш DNN теперь может думать, что изображение банана - это тостер. Человека нельзя обмануть такой уловкой. Некоторые утверждают, что это потому, что DNN могут видеть то, что люди не могут видеть, но Уотсон говорит : «Это несоответствие между биологическими и искусственными нейронными сетями предполагает, что у последних отсутствует какой-то важный компонент, необходимый для навигации в реальном мире».
Во-вторых, DNN нужно огромное количество данных для изучения. DNN классификации изображений может потребоваться «увидеть» тысячи изображений зебр, чтобы идентифицировать зебру на изображении. Сделайте тот же тест для малыша, и есть вероятность, что он/она сможет идентифицировать зебру, даже ту, которая частично скрыта, только увидев изображение зебры несколько раз. Люди - отличные «однократные ученики», говорит Уотсон. Обучение нейронной сети, с другой стороны, может быть очень трудным, особенно в тех случаях, когда трудно получить данные.
В-третьих, нейронные сети являются «близорукими». Они могут видеть деревья, так сказать, но не лес. Например, DNN может успешно маркировать изображение Ким Кардашьян как женщину, артиста и звездочку. Однако переключение положения ее рта и одного из ее глаз фактически улучшило уверенность в предсказании DNN. DNN не видел ничего плохого в этом изображении. Очевидно, что-то здесь не так. Другой пример - человек может сказать «это облако похоже на собаку», тогда как DNN скажет, что облако - это собака.
«Было бы ошибкой утверждать, что эти алгоритмы воссоздают человеческий интеллект», - говорит Уотсон . «Вместо этого они вводят какой-то новый способ вывода, который в некоторых отношениях превосходит нас, а в других - нет».
Искусственный интеллект все чаще используется в таких областях, как финансы, клиническая медицина и правосудие. Он может быть использован для определения того, кто получает кредит, а кто может сдать в аренду дом или получить кредит. Когда ставки высоки, мы хотим, чтобы те, кто принимает решения - будь то машины или люди, были правильными, заслуживающими доверия и ответственными. Алгоритмы машинного обучения и нейронные сети - это те самые вещи? Возможно, они могут быть правильными. Но могут ли они быть заслуживающими доверия и ответственными? Хотя трудно судить, даже если другой человек заслуживает доверия или ответственен, может быть еще сложнее судить о чем-то, что мыслит такими радикально разными способами, как люди, пишет Forbes.
«Алгоритмы не «просто похожи на нас»... антропоморфизируя статистическую модель, мы неявно наделяем ее той степенью свободы действий, которая не только преувеличивает ее истинные способности, но и лишает нас нашей собственной автономии ... Люди выбирают следует ли отречься от этих полномочий, дать возможность какой-то технологии вмешиваться от нашего имени. Было бы ошибкой предполагать, что эта передача власти предполагает одновременное освобождение от ответственности. Это не так».
kapital-rus.ru »