06.03
23:34
В чем опасность нейросетей

Нейросети могут забрать чьи-то рабочие места, но это не единственная проблема. Разберем каждую опасность по отдельности.
ИИ заберут рабочие места
Во многих сферах ИИ в разы эффективнее человека. Например, рекламные алгоритмы закупают места под объявления и совершают тысячи показов, точно попадая в ЦА. Вручную понадобились бы сотни людей, и процесс был бы медленнее.
Одна проблема: на обучение ИИ нужны ресурсы. Нужно собрать много данных, а это долго и дорого. Выше мы рассказывали о нейросети, которая распознавала байкальский планктон. Ее обучали на 20 тысяч изображений, которые кропотливо создавали биологи. Причем изначально они отдали разрабам 50 тысяч фото — больше половины не подошли для обучения из-за качества, недостаточности информации и по другим причинам. Сортировали изображения тоже люди, и это тоже долгая и кропотливая работа.
Поэтому создание нейросетей окупается только в масштабных проектах: генерация тысяч картинок каждый день, закупка рекламных объявлений по всему миру и так далее. У маленьких и средних компаний свои задачи, более узкие. Пока что они не могут заменить сотрудника на ИИ и при этом не уйти в минус.
Но может найтись недорогой и быстрый способ собирать данные. Например, при помощи роботов. Пока что их стоимость слишком высока, чтобы окупить создание нейросети, а точность может страдать. Но с прогрессом производство машин становится все дешевле, а они сами — «умнее». Поэтому можно представить будущее, в котором компания будет покупать или арендовать робота, чтобы он собирал их данные. На этой «дешевой» информации будут обучать нейросети для узких задач. Готово — ИИ-сотрудник, который умнее и выгоднее человека.
Впрочем, до этого далеко… пока что.
Нейросети нарушают авторское право
В интернете начались первые бунты против нейросетей. Художники утверждают: копируя их, ИИ-художники обесценивают творчество.
Действительно ли это нарушение авторского права? Нейросеть учится на работах из интернета, но копирует только художественный стиль. Законом такое не регулируется, отсюда и дебаты.
Подробных законов о нейросетях и авторском праве пока нет. Но факт остается фактом: художники вкладывают время и труд, а владельцы нейросетей зарабатывают на этом и не делятся. Поэтому и бунтуют против ИИ — точнее, против людей, которые берут деньги за генерацию изображений.
В этом плане Shutterstock выбрал интересную стратегию. Фотосток собирается запустить ИИ-генерацию картинок и выплачивать проценты художникам, на которых учится алгоритм. Такая модель могла бы распространиться во всем мире, и наверняка устроила бы многих. Но навязать ее всем владельцам нейросетей невозможно без детального закона.
ИИ ошибается
ИИ не различают фейки и достоверную информацию, оскорбления и позитивные слова. Если его обучили на некачественных данных, то и работать он будет соответствующе. Поэтому доверять полностью нейросетям мы не можем.
Сейчас все в восторге от чат-бота ChatGPT. ИИ пишет настолько осмысленные тексты, что его не отличить от человека. Компании, может, и хотели бы его использовать в качестве журналиста, но это чревато последствиями. ChatGPT не различает факты и фейки, может оскорбить пользователя или вбросить hate speech, что для западного мира — мгновенная «отмена». Дело в том, что ИИ учится на всем интернете, и, конечно же, находит информацию разного качества и настроения.
Даже Google грызет локти: гигант хочет создать что-то подобное, чтобы не отставать от прогресса, но репутационные риски велики. Можно заморочиться и обучить «идеального» чат-бота без hate speech и фейков. Но, как мы уже объясняли, обучение с человеком — это долго и дорого. Google пришлось бы немного отвлечься от развития рекламы в поисковой выдаче, а это 80% доходов.
Тем временем чат-боты могут заменить поиск в интернете. Зачем что-то искать самостоятельно, если можно спросить ИИ? Плакали денежки Google (и других поисковиков, и рынка контекстной рекламы в целом).
Источник
→ В чем опасность нейросетей