Этические проблемы использования ИИ в современном технологическом мире
Иногда кажется, что проблема человечества — в недостатке знаний. Но это давно уже не так. Информации больше, чем человек способен осмыслить. Ответы находятся быстрее, чем успевает сформироваться вопрос. И именно в этот момент возникает новая опасность — не в том, что мы не знаем, а в том, что мы перестаём думать. Доступ к информации не делает человека умнее. Умнее делает её применение.

реклама
Инструменты ускоряют работу. Мышление двигает мир. Но есть одна вещь, которую нельзя ускорить без потери сути — это выбор. С появлением искусственного интеллекта человек получил возможность переложить на машину не только расчёт, но и часть решения. Сначала незаметно — «пусть подскажет», «пусть предложит лучший вариант», «пусть рассчитает вероятности» А затем, почти автоматически — «если система уверена что это правильно, значит так правильно». И в этот момент происходит сдвиг.
Не технология становится опасной. Опасным становится человек, который готов передать ей право выбора. Человеку всегда было тяжело принимать решения с последствиями. Особенно те, после которых нельзя вернуться назад. Где нет правильного варианта — а есть только выбор между плохим и ещё хуже. И именно здесь возникает искушение: снять с себя ответственность. Передать её тому, кто не чувствует, не сомневается и не будет жить с последствиями.
Но у машины есть принципиальное отличие. Она может считать. Она может анализировать. Она может предлагать. Но она не может отвечать. И поэтому возникает граница. Её нельзя выразить формулой. Её нельзя полностью запрограммировать. Но её можно сформулировать. Как 2 основополагающих принципа и закона для ИИ.
- Человек имеет право на самопожертвование. ИИ не имеет права жертвовать человеком априори.
- Право нажать кнопку принадлежит только человеку. ИИ может быть только советчиком. Право выбора — только у человека.
реклама
Эти правила не делают мир безопасным. Они делают его человеческим. Потому что вопрос не в том, сможет ли машина принять более точное решение. Вопрос в другом: кто будет жить с последствиями этого решения. История знает примеры, когда решение принимал человек, и ответственность оставалась с ним навсегда. Тогда не было возможности сказать: «так решила система». Было только: «я сделал это». Можно нажать кнопку и сказать, что решение было рассчитано. Можно довериться алгоритму и не задавать лишних вопросов. Можно получить правильный ответ и не понять, почему он правильный.
И постепенно происходит незаметная подмена. Но вместе с этим меняется и другое — то, о чём редко задумываются. Изменится цена ошибки. Раньше ошибка была локальной. Человек мог испортить деталь, узел, изделие. Её можно было заметить, остановить, исправить. Теперь ошибка масштабируется.
Одно неверное решение может быть применено сразу в тысячах мест. Оно повторяется быстро, автоматически, без сомнений. Человек ошибается один раз. Система повторяет ошибку. ИИ масштабирует её мгновенно. И тогда цена ошибки перестаёт измеряться в стоимости детали или работы. Она начинает измеряться последствиями.
Если человек ломает деталь — это проблема. Если система ломает изделие — это убыток. Если ошибётся ИИ — это может стать катастрофой. Человек остаётся в системе. Но перестаёт быть тем, кто выбирает и решает. Это и есть самая опасная точка. Не тогда, когда машина становится умнее. А тогда, когда человек перестаёт быть ответственным. Границы Вселенной могут быть конечны .Это ещё не доказано. Но границы человеческой глупости границ не имеют. Это аксиома.
реклама
И это не теория. Это уже происходило. 2 июля 2013 года на Байконуре стартовала тяжёлая ракета-носитель «Протон-М» с тремя спутниками «Глонасс-М». Через 17 секунд после старта она развернулась на 180 градусов и врезалась в землю. Причина оказалась абсурдной. Три из шести датчиков угловых скоростей были установлены вверх ногами.
Конструкторы предусмотрели защиту от дурака: штифты не позволяли установить их неправильно. Но сборщик не стал разбираться. Он просто применил силу и вбил датчики на место, пробив новые отверстия. Контроль не заметил ошибки. Система управления получила перевёрнутые данные и сама развернула ракету носом в землю. Тот случай, когда кувалда оказалась сильнее любого интерфейса. И глупость победила конструкторскую мысль.
Не вызывает сомнений ,что этого безмозглого слесаря-сборщика нашли и сурово наказали. Но чем это могло помочь после такого многомиллиардного ущерба. А теперь, если технологии продолжат ускоряться в геометрической прогрессии, а мышление нет, то проблема будущего будет не в том, что машины будут принимать решения, а в том, что человек перестанет их принимать, переложив ответственность на машину.
Да, ИИ снижает количество ошибок человека, но и сам ИИ может ошибаться, недаром при общении с ИИ есть предупреждение – ИИ может допускать ошибки. Рекомендуем проверять важную информацию. Но цена ошибки ИИ станет несоизмеримо выше.
Человек остаётся человеком не тогда, когда он прав. А тогда, когда он готов отвечать за свой выбор и решение, даже если оно окажется ошибочным. Именно поэтому вопрос не в том, насколько умна машина. Вопрос в том, насколько человек готов отвечать за последствия её ошибок. Вот это и есть точка, где проходит граница между расчётом и выбором.
Теги
Лента материалов
Соблюдение Правил конференции строго обязательно!
Флуд, флейм и оффтоп преследуются по всей строгости закона!
Комментарии, содержащие оскорбления, нецензурные выражения (в т.ч. замаскированный мат), экстремистские высказывания, рекламу и спам, удаляются независимо от содержимого, а к их авторам могут применяться меры вплоть до запрета написания комментариев и, в случае написания комментария через социальные сети, жалобы в администрацию данной сети.


Комментарии Правила