Южная Америка

А что, если искусственный интеллект — это всего лишь «обычная» технология?

А что, если искусственный интеллект — это всего лишь «обычная» технология?
Мнения об искусственном интеллекте варьируются в довольно широком диапазоне. На одном конце спектра находится утопическая точка зрения, согласно которой ИИ приведет к бурному экономическому росту, ускорит научные исследования и, возможно, сделает людей бессмертными. На другом конце спектра находится дистопическая точка зрения: ИИ приведет к массовой и внезапной потере рабочих мест, дестабилизирует экономику и даже может выйти из-под контроля и уничтожить человечество. Поэтому привлекает внимание статья, опубликованная в этом году Арвиндом Нараянаном и Саяшем Капуром, двумя учеными-компьютерщиками из Принстонского университета, в которой ИИ рассматривается нетрадиционным образом: как «обычная технология». Эта работа вызвала бурную дискуссию среди исследователей ИИ и экономистов. «Как утопические, так и антиутопические взгляды, пишут авторы, рассматривают ИИ как беспрецедентный интеллект, способный решать свое собственное будущее, что делает бесполезными аналогии с предыдущими изобретениями. Нараянан и Капур отвергают эту идею и предлагают более вероятный сценарий: ИИ будет следовать траекторией, схожей с траекторией прошлых технологических революций. Исходя из этого, они анализируют, что это будет означать для внедрения ИИ, занятости, рисков и государственной политики. «Рассмотрение ИИ как обычной технологии приводит к совершенно иным выводам о том, как снизить риски, чем рассмотрение его как чего-то похожего на человека», — отмечают они. Авторы утверждают, что темпы внедрения ИИ отстают от темпов инноваций. Многие люди время от времени используют инструменты ИИ, но в США интенсивность их использования (измеряемая в часах ежедневного использования) по-прежнему остается низкой по отношению к общему количеству рабочих часов. То, что внедрение отстает от инноваций, неудивительно: людям и компаниям требуется время, чтобы адаптировать свои привычки и способы работы к новым технологиям. Кроме того, внедрение замедляется из-за того, что большая часть знаний является неявной и специфичной для каждой организации, данные не всегда находятся в подходящем формате, а их использование может быть ограничено нормативными актами. Нечто подобное произошло столетие назад, когда фабрики были электрифицированы: на это ушли десятилетия, потому что пришлось с нуля переосмыслить проектирование заводов, процессы и организационные структуры». Ограничения темпов инноваций в области ИИ также могут быть более значительными, чем кажется, утверждается в статье, поскольку многие приложения (такие как разработка лекарств, автономные автомобили или даже простая бронировка поездки) требуют тщательного тестирования в реальных условиях. Это может быть медленным и дорогостоящим процессом, особенно в критически важных для безопасности и строго регулируемых секторах. В результате, экономические последствия «вероятно будут постепенными», заключают авторы, а не резкой автоматизацией значительной части экономики. «Даже медленное распространение ИИ изменит характер труда. По мере того, как все больше задач станет возможно автоматизировать, «все большая доля рабочих мест будет связана с контролем над ИИ». Здесь можно провести аналогию с промышленной революцией, когда рабочие перешли от выполнения ручных работ, таких как ткачество, к контролю за машинами, которые их выполняли, и вмешательству в случае их задержки. ИИ не «украдет» рабочие места, а приведет к тому, что работа будет все больше состоять из настройки, мониторинга и контроля систем на основе ИИ. Без человеческого надзора, полагают Нараянан и Капур, ИИ может оказаться «слишком подверженным ошибкам, чтобы иметь экономический смысл». Это, в свою очередь, имеет последствия для рисков ИИ. Примечательно, что авторы критикуют акцент на «согласовании» моделей ИИ, то есть на усилиях по обеспечению соответствия их результатов целям их человеческих создателей. Они отмечают, что зачастую то, является ли результат вредным или нет, зависит от контекста, который понимают люди, но не понимает модель. Модель, которая составляет убедительное электронное письмо, например, не может знать, будет ли это сообщение использовано для законного маркетинга или для злонамеренного фишинга. Попытка создать модель ИИ, которую нельзя будет использовать в злонамеренных целях, «похожа на попытку создать компьютер, который нельзя будет использовать для плохих дел», пишут они. Вместо этого они предлагают сосредоточить меры защиты от злоупотребления ИИ (например, для создания вредоносных программ или биологического оружия) ниже по цепочке, усилив уже существующие меры кибербезопасности и биобезопасности. Это также повышает устойчивость к угрозам такого рода, не связанным с ИИ. «Такой подход предполагает ряд мер по снижению рисков и повышению устойчивости. Среди них: защита информаторов (как во многих других отраслях), обязательное раскрытие информации об использовании ИИ (аналогично защите данных), регистрация развертывания (как в случае с автомобилями и дронами) и обязательная отчетность об инцидентах (как в случае с кибератаками). В целом, в статье делается вывод, что уроки, извлеченные из предыдущих технологий, могут быть продуктивно применены к ИИ, и что отношение к нему как к «нормальному» явлению приводит к более разумной политике, чем восприятие его как неминуемого появления сверхинтеллекта. Статья не лишена недостатков. Иногда она звучит как аргумент против преувеличения в отношении ИИ. В некоторых местах она рассеяна, представляет убеждения как факты, и не все ее аргументы убедительны — хотя то же самое происходит с утопическими и антиутопическими дискурсами. Даже прагматики в области ИИ могут посчитать, что авторы слишком легкомысленно относятся к потенциальному нарушению рынка труда, недооценивают скорость внедрения, чрезмерно преуменьшают риски несоответствия и обмана и слишком полагаются на регулирование. Их прогноз о том, что ИИ не сможет «значительно превзойти обученных людей» в задачах прогнозирования или убеждения, кажется слишком уверенным. И даже если утопические и антиутопические сценарии окажутся неверными, ИИ все равно может оказаться гораздо более трансформирующим, чем они описывают. Но многие люди, прочитав это отрицание «исключительности» ИИ, кивнут головой. Промежуточная позиция менее драматична, чем прогнозы о скором «быстром взлете» или апокалипсисе, поэтому ей обычно уделяется мало внимания. Поэтому авторы считают, что ее стоит предложить: потому что они полагают, что «какая-то версия нашего взгляда широко разделяется». На фоне нынешних опасений по поводу устойчивости инвестиций в ИИ их статья предлагает освежающе скучную альтернативу истерии по этому поводу».