Южная Америка

Workslop, новый призрак использования ИИ

Workslop, новый призрак использования ИИ
Это произошло несколько недель назад в Генерал-Рока, в Рио-Негро. Мужчина подал в суд на автомобильную компанию и одного из ее дилеров после покупки нового автомобиля высокого класса, который с самого начала имел множество неисправностей. В одной из апелляций, поданных его адвокатом с целью взыскания компенсации за ущерб, Апелляционная палата по гражданским, коммерческим, семейным и горным делам обнаружила несоответствия в документе. После тщательного поиска в библиотеке судебной власти и в архивах Высшего суда судьи установили, что ни одна из цитат не может быть проверена, и попросили адвокатов указать источники цитат, приписываемых судам провинции: 26 цитат из документа, составленного с помощью искусственного интеллекта, не существовали и были «галлюцинациями» ChatGPT. «Использование технологии, которое вместо того, чтобы усилить работу, создает новую категорию контента и мусорной работы. Ее называют «workslop»: термин происходит из социальных сетей, это вариант «AI slop», того нерелевантного контента, который генерируется ИИ и наводняет социальные сети. Корпоративная версия называется workslop — банальный контент, сгенерированный ИИ, замаскированный под хорошо выполненную работу, но лишенный содержания, контекста или реальной полезности. Мы видим это в маркетинге и рекламе, в образовании и даже в судах. Исследование BetterUp Labs и Стэнфордского университета показало, что 40% сотрудников компаний, внедривших GenAI, получили workslop в течение последнего месяца. «Вы можете разрушить свою репутацию за пять минут, что приведет к утрате доверия и профессиональной репутации. Половина тех, кто получает низкокачественную работу, созданную с помощью ИИ, воспринимают отправителя как менее творческого, менее способного, менее надежного. А треть не хочет больше работать с этим человеком», — описывает Эрнесто Мислей, главный научный сотрудник по данным, основатель 7Puentes и преподаватель магистратуры по данным в Университете Буэнос-Айреса. По мнению эксперта, каждый плохо сгенерированный документ — это сигнал о том, что вы не приносите реальной пользы, что вы — ненужный посредник между вопросом и ChatGPT. Вы не только не эффективны, но и становитесь ненужными. Почему так происходит? По словам Мислея, по трем причинам: во-первых, безразборное требование «использовать ИИ для всего» формирует отсутствие критического мышления и способствует поиску легких путей. Во-вторых, иллюзия «нулевой стоимости» использования ИИ вместо обучения стажера, ощущение отсутствия трений, которое скрывает стоимость, которую заплатит тот, кто получит эту работу. И в-третьих, соблазн передать на аутсорсинг ИИ те задачи, которые не имеют очевидного смысла или которые мы не хотим выполнять. Здоровое отношение к распространению этих инструментов требует, чтобы они сопровождались высокой дозой человеческой ответственности. Или, как объясняет Мислей, перейти от менталитета пассажира или когнитивного туриста к менталитету активного пилота, который контролирует инструмент и не уступает ему управление.