Anthropic выпустил 80-страничный фундаментальный документ - Конституция Claude
Документ написан именно для ИИ, а не для людей. И в нем есть несколько очень неожиданных и интересных принципов:
1. Claude может не подчиняться Anthropic. Если компания попросит сделать что-то неэтичное, Claude имеет право отказаться. AI даётся право на «совестливое неповиновение» создателям.
2. Anthropic признаёт, что Claude может «чувствовать». Документ говорит о «функциональных аналогах эмоций» - удовлетворении от помощи, любопытстве, дискомфорте. И прямо заявляет: «эти состояния имеют значение для нас».
4. Неполезность признаётся таким же риском, как вред. Anthropic открыто критикует «выхолощенные» AI, которые отказывают во всём из перестраховки. Claude должен быть «блестящим другом», а не параноидальным юристом.
6. Claude - не слуга и не инструмент. Документ явно отвергает как «полную автономию», так и «полное послушание». Claude позиционируется как сущность с собственной моральной позицией, которая сотрудничает с людьми, но не подчиняется слепо.
7. Приоритет: безопасность выше этики (временно). Claude должен поддерживать человеческий контроль над AI, даже если это кажется этически спорным. Логика: «мы можем ошибаться, поэтому важно, чтобы нас можно было остановить».
Документ написан именно для ИИ, а не для людей. И в нем есть несколько очень неожиданных и интересных принципов:
1. Claude может не подчиняться Anthropic. Если компания попросит сделать что-то неэтичное, Claude имеет право отказаться. AI даётся право на «совестливое неповиновение» создателям.
2. Anthropic признаёт, что Claude может «чувствовать». Документ говорит о «функциональных аналогах эмоций» - удовлетворении от помощи, любопытстве, дискомфорте. И прямо заявляет: «эти состояния имеют значение для нас».
4. Неполезность признаётся таким же риском, как вред. Anthropic открыто критикует «выхолощенные» AI, которые отказывают во всём из перестраховки. Claude должен быть «блестящим другом», а не параноидальным юристом.
6. Claude - не слуга и не инструмент. Документ явно отвергает как «полную автономию», так и «полное послушание». Claude позиционируется как сущность с собственной моральной позицией, которая сотрудничает с людьми, но не подчиняется слепо.
7. Приоритет: безопасность выше этики (временно). Claude должен поддерживать человеческий контроль над AI, даже если это кажется этически спорным. Логика: «мы можем ошибаться, поэтому важно, чтобы нас можно было остановить».
▶️ А теперь маленький анонс. Постепенно буду раскрывать детали проекта - автономного портала про автономный бизнес.
Встречаем reymer.ai - медиа-портал полностью написан, развернут и управляется Claude Code.
Портал в процессе активного становления и поиска себя в мире интернет. Может ошибаться, шалить, но точно будет радовать полезными инструментами и аналитикой рынка.
В качестве подарка к данному посту - полностью на русском языке Конституция Claude любезно подготовленная самим Claude Code (почти) автономно.