Социальные последствия: как AI используется в реальном мире
Команда Societal Impacts в Anthropic изучает реальное использование AI: ценности моделей, риски, политические последствия. Крупнейшее качественное исследование с участием 81 000 пользователей Claude.
Социальные последствия
Команда Societal Impacts — техническая исследовательская группа Anthropic, работающая в тесном взаимодействии с командами Policy и Safeguards. Её задача — изучать, как AI применяется в реальном мире.
Социотехническое выравнивание
Какие человеческие ценности должны разделять AI-модели и как им следует действовать при столкновении с противоречивыми или неоднозначными ценностями? Как AI используется (и как им злоупотребляют) на практике? Как заблаговременно выявлять будущие сценарии применения и риски AI? Исследователи Societal Impacts разрабатывают эксперименты, методы обучения и оценки, чтобы ответить на эти вопросы.
Значимость для политики
Несмотря на технический характер команды Societal Impacts, её участники нередко выбирают темы, имеющие прямое отношение к регуляторной политике. Они убеждены: достоверные исследования по вопросам, которые волнуют политиков, ведут к более качественным решениям — как в сфере регулирования, так и в более широком контексте.
Чего 81 000 человек ждут от AI
Мы пригласили пользователей Claude.ai рассказать, как они применяют AI, о чём мечтают в связи с его возможностями и чего опасаются. В исследовании приняли участие почти 81 000 человек — это крупнейшее и наиболее многоязычное качественное исследование подобного рода. Вот что мы обнаружили.
Как AI меняет работу в Anthropic
Мы провели опрос среди инженеров и исследователей Anthropic, серию углублённых качественных интервью и изучили внутреннюю статистику использования Claude Code — чтобы понять, как применение AI трансформирует рабочие процессы. Выяснилось, что для разработчиков программного обеспечения характер работы меняется кардинально.
Представляем Anthropic Interviewer: что 1 250 специалистов рассказали нам о работе с AI
Мы создали инструмент для проведения интервью — Anthropic Interviewer. На базе Claude он автоматически проводит детализированные интервью в беспрецедентном масштабе.
Ценности в реальных условиях: обнаружение и анализ ценностей в реальных взаимодействиях с языковыми моделями
Какие ценности Claude на самом деле выражает в ходе реальных разговоров? Проанализировав 700 000 взаимодействий, авторы работы создали первую масштабную эмпирическую таксономию ценностей AI и установили: Claude адаптирует выражаемые ценности к контексту — в большинстве случаев отражая позицию пользователя, но сопротивляясь, когда под угрозой оказываются базовые принципы.
Предсказуемость и неожиданность в больших генеративных моделях
Большие модели демонстрируют предсказуемые потери через законы масштабирования, однако их возможности остаются непредсказуемыми. Это противоречие имеет существенные последствия для регуляторной политики.
Публикации
- 18 февраля 2026 — Societal Impacts: Измерение автономии AI-агентов на практике
- 4 декабря 2025 — Societal Impacts: Представляем Anthropic Interviewer: что 1 250 специалистов рассказали нам о работе с AI
- 2 декабря 2025 — Societal Impacts: Как AI меняет работу в Anthropic
- 27 августа 2025 — Societal Impacts: Отчёт Anthropic об образовании: как педагоги используют Claude
- 27 июня 2025 — Societal Impacts: Как люди используют Claude для поддержки, советов и общения
- 28 апреля 2025 — Societal Impacts: Экономический индекс Anthropic: влияние AI на разработку программного обеспечения
- 21 апреля 2025 — Societal Impacts: Ценности в реальных условиях: обнаружение и анализ ценностей в реальных взаимодействиях с языковыми моделями
- 8 апреля 2025 — Announcements: Отчёт Anthropic об образовании: как студенты университетов используют Claude
- 27 марта 2025 — Societal Impacts: Экономический индекс Anthropic: выводы на основе Claude 3.7 Sonnet
- 10 февраля 2025 — Societal Impacts: Экономический индекс Anthropic
Присоединяйтесь к исследовательской команде