Изображение: Pixabay

Изображение: Pixabay

AI Index, независимая инициатива от Stanford Institute for Human-Centered Artificial Intelligence (HAI), работала над докладом вместе с разнообразными экспертами из научных кругов и представителями частного производства. Целью был сбор информации и прогнозов, связанных с развитием ИИ. Хотя это может быть уже и не самым свежим взглядом на искусственный интеллект, но эти периодические (ежегодные) опросы важны, чтобы держать руку на пульсе бурно развивающейся отрасли.

Нынешний доклад среди прочего включает анализ основных моделей, затрат на обучение, влияние систем ИИ на окружающую среду, тенденции общественного мнения по ИИ, а также анализ политики стран относительно ИИ.

TechCrunch приводит важнейшие, на их взгляд, выводы:

  • За последнее десятилетие развитие ИИ переключилось от академических разработок к отраслевым применениям; и изменений в этой тенденции не предвидится.
  • Становится сложно тестировать модели по традиционным критериям, и здесь может потребоваться новая парадигма и подход.
  • Энергетический след обучения и использования ИИ становится значительным, но нам еще предстоит увидеть, как это может увеличить энергоэффективность в других местах.
  • Количество «инцидентов и противоречий», связанных с ИИ, с 2012 года увеличилось в 26 раз.
  • Спрос на навыки и объявления о вакансиях, связанных с ИИ, растут, но не так быстро, как вы думаете.
  • Политики, однако, спешат предвидеть спрос, пытаясь написать окончательные законопроекты о ИИ.
  • Инвестиции временно приостановились, однако этому предшествовал астрономический рост в течение последнего десятилетия.
  • Более 70% респондентов из Китая, Саудовской Аравии и Индии считают, что ИИ имеет больше преимуществ, чем недостатков. Среди американцев так считает только 35%.

Отчет подробно описывает многие темы и подтемы. TechCrunch, в частности, рассматривает рост числа «инцидентов и противоречий, связанных с ИИ».

График, иллюстрирующий количество инцидентов и противоречий с ИИ / Изображение: Stanford HAI

График, иллюстрирующий количество инцидентов и противоречий с ИИ / Изображение: Stanford HAI

Естественно, тенденция возрастает, и эти цифры появились еще до создания ChatGPT и других больших языковых моделей, не говоря уже о значительном улучшении генераторов изображений. Поэтому можно с уверенностью говорить, что увеличение в 26 раз — это только начало.

Большие вопросы вызывает оптимизация языковых моделей по критериям «справедливость и непредвзятость», например, по гендерным, расовым и другим социальным признакам. Анализ показывает, что оптимизация не так проста, как все надеются. Нет простого решения для улучшения больших моделей ИИ, частично потому, что мы сами не до конца понимаем, как они работают.

Проверка фактов — один из вариантов, которые выглядели бы как естественный подход к решению подобных проблем: проиндексировав большую часть интернета, ИИ мог бы оценивать конкретные утверждения и возвращать уверенность в том, что они исходят из истинных источников, рассуждают эксперты. Но это очень далеко от происходящего. 

На самом деле особенно плохо ИИ оценивает именно фактичность — и риск здесь заключается не столько в том, что модели будут ненадежными фактчекерами, сколько в том, что они сами станут мощными источниками убедительной дезинформации.

Работа над улучшением проверки фактов искусственным интеллектом уже ведется, но пока ситуация здесь стоит на месте. При этом, однако, позитивной тенденцией выглядит большой подъем общественного интереса: когда люди чувствуют, что не могут доверять искусственному интеллекту, вся отрасль может откатываться назад или тормозить.

Эти основные моменты оставляют на столе много деталей. Команда HAI проделала отличную работу, и каждый может открыть полную версию статьи и вникнуть в любую тему, вызывающую интерес.

Клас
Панылы сорам
Ха-ха
Ого
Сумна
Абуральна

Хочешь поделиться важной информацией анонимно и конфиденциально?