Claude Info
Research·

Социальные последствия: как AI используется в реальном мире

Команда Societal Impacts в Anthropic изучает реальное использование AI: ценности моделей, риски, политические последствия. Крупнейшее качественное исследование с участием 81 000 пользователей Claude.

Социальные последствия

Команда Societal Impacts — техническая исследовательская группа Anthropic, работающая в тесном взаимодействии с командами Policy и Safeguards. Её задача — изучать, как AI применяется в реальном мире.

Социотехническое выравнивание

Какие человеческие ценности должны разделять AI-модели и как им следует действовать при столкновении с противоречивыми или неоднозначными ценностями? Как AI используется (и как им злоупотребляют) на практике? Как заблаговременно выявлять будущие сценарии применения и риски AI? Исследователи Societal Impacts разрабатывают эксперименты, методы обучения и оценки, чтобы ответить на эти вопросы.

Значимость для политики

Несмотря на технический характер команды Societal Impacts, её участники нередко выбирают темы, имеющие прямое отношение к регуляторной политике. Они убеждены: достоверные исследования по вопросам, которые волнуют политиков, ведут к более качественным решениям — как в сфере регулирования, так и в более широком контексте.

Чего 81 000 человек ждут от AI

Мы пригласили пользователей Claude.ai рассказать, как они применяют AI, о чём мечтают в связи с его возможностями и чего опасаются. В исследовании приняли участие почти 81 000 человек — это крупнейшее и наиболее многоязычное качественное исследование подобного рода. Вот что мы обнаружили.

Как AI меняет работу в Anthropic

Мы провели опрос среди инженеров и исследователей Anthropic, серию углублённых качественных интервью и изучили внутреннюю статистику использования Claude Code — чтобы понять, как применение AI трансформирует рабочие процессы. Выяснилось, что для разработчиков программного обеспечения характер работы меняется кардинально.

Представляем Anthropic Interviewer: что 1 250 специалистов рассказали нам о работе с AI

Мы создали инструмент для проведения интервью — Anthropic Interviewer. На базе Claude он автоматически проводит детализированные интервью в беспрецедентном масштабе.

Ценности в реальных условиях: обнаружение и анализ ценностей в реальных взаимодействиях с языковыми моделями

Какие ценности Claude на самом деле выражает в ходе реальных разговоров? Проанализировав 700 000 взаимодействий, авторы работы создали первую масштабную эмпирическую таксономию ценностей AI и установили: Claude адаптирует выражаемые ценности к контексту — в большинстве случаев отражая позицию пользователя, но сопротивляясь, когда под угрозой оказываются базовые принципы.

Предсказуемость и неожиданность в больших генеративных моделях

Большие модели демонстрируют предсказуемые потери через законы масштабирования, однако их возможности остаются непредсказуемыми. Это противоречие имеет существенные последствия для регуляторной политики.

Публикации

  • 18 февраля 2026 — Societal Impacts: Измерение автономии AI-агентов на практике
  • 4 декабря 2025 — Societal Impacts: Представляем Anthropic Interviewer: что 1 250 специалистов рассказали нам о работе с AI
  • 2 декабря 2025 — Societal Impacts: Как AI меняет работу в Anthropic
  • 27 августа 2025 — Societal Impacts: Отчёт Anthropic об образовании: как педагоги используют Claude
  • 27 июня 2025 — Societal Impacts: Как люди используют Claude для поддержки, советов и общения
  • 28 апреля 2025 — Societal Impacts: Экономический индекс Anthropic: влияние AI на разработку программного обеспечения
  • 21 апреля 2025 — Societal Impacts: Ценности в реальных условиях: обнаружение и анализ ценностей в реальных взаимодействиях с языковыми моделями
  • 8 апреля 2025 — Announcements: Отчёт Anthropic об образовании: как студенты университетов используют Claude
  • 27 марта 2025 — Societal Impacts: Экономический индекс Anthropic: выводы на основе Claude 3.7 Sonnet
  • 10 февраля 2025 — Societal Impacts: Экономический индекс Anthropic

Присоединяйтесь к исследовательской команде