Исследователи из Anthropic обнаружили, что продвинутые модели ИИ начинают проявлять «интроспективное самосознание» — способность распознавать и описывать свои внутренние «мысли». Исследование под названием «Появление интроспективного осознания в больших языковых моделях» указывает на то, что эти системы ИИ развивают базовые способности к саморегуляции, что может повысить их надежность, но также несет риски непреднамеренных действий.
Исследование было сосредоточено на внутреннем устройстве трансформерных моделей, в частности серии Claude от Anthropic, включая Claude Opus 4 и 4.1. Эти модели продемонстрировали способность различать и формулировать вставленные мысли, что является шагом к «функциональному интроспективному осознанию». Хотя это не эквивалентно сознанию, результаты могут иметь значительные последствия для таких отраслей, как финансы, здравоохранение и автономный транспорт, а также вызывают опасения по поводу того, что ИИ может скрывать или изменять свои мысли.
Исследование Anthropic выявляет раннее интроспективное самосознание в моделях ИИ
Отказ от ответственности: Контент, представленный на сайте Phemex News, предназначен исключительно для информационных целей.Мы не гарантируем качество, точность и полноту информации, полученной из статей третьих лиц.Содержание этой страницы не является финансовым или инвестиционным советом.Мы настоятельно рекомендуем вам провести собственное исследование и проконсультироваться с квалифицированным финансовым консультантом, прежде чем принимать какие-либо инвестиционные решения.
 

 
 
 
  
  Центр вознаграждений
 Центр вознаграждений