Безопасность искусственного интеллекта.

"Вопросы по теме «Сознание у ИИ»​



Академик К.Анохин любит и умеет задавать вопросы по проблематике, которой он занимается. Это его стиль углубления в проблему, который я наглядно проиллюстрировал в предыдущей публикации. Применительно к рассматриваемой теме «Сознание у больших языковых моделей» вопросы им сформулированы следующие:

  • Как можно исследовать сознание у компьютерного алгоритма?
  • Сознательны ли нынешние большие языковые модели?
  • Могут ли будущие системы ИИ быть сознательными?
  • Каким будет такое сознание?
  • Какие моральные обязательства возникнут у нас тогда?
  • Должны ли мы создавать системы ИИ, обладающие сознанием, или это плохая идея?
Прежде чем начать выявлять наличие сознания у ИИ, нужно определиться с тем, а что мы станем понимать под «сознанием»? Если пытаться дать исчерпывающее определение, то придётся учитывать массу факторов (такому «многофакторному» анализу, проделанному К.Анохиным, посвящена значительная часть моей предшествующей публикации). Анохин, в данном конкретном случае, предлагает ограничиться характеристикой, кардинально отличающей сознание и от интеллекта, и от разума. Он считает, что в последние годы в академической среде почти сформировался консенсус в «определении базовой характеристики сознания как любого субъективного опыта – генерируемого изнутри или в ответ на внешние обстоятельства, когнитивного или эмоционального – всего, что ощущается субъектом». И это значительно отличается от определения, данного в Большом энциклопедическом словаре ещё в 2000г., где сознание определялось как «высшая форма психического отражения, свойственная общественно развитому человеку и связанная с речью…». С тех пор учёные пришли к заключению, что сознанием могут обладать не только люди, но и животные, и, даже, моллюски (например, улитка). И теперь жарко спорят о том, «каково это – быть летучей мышью?» (Томас Нагель). Для удобства последующего сравнения, общий субъективный опыт Анохин раскладывает на следующие составляющие:

  • Сенсорный опыт – например, видеть красный цвет
  • Аффективный опыт – например, чувствовать боль
  • Когнитивный опыт – например, напряженно думать
  • Агентивный опыт – например, решать действовать
  • Самосознание – осознание себя
Важно понимать, что сознание (субъективный опыт) ≠ интеллекту (способности к сложному поведению), а также не тождественно человеческому сознанию (так как встречается у многих других животных) и не исчерпывается самосознанием.

Здесь, нарушая стройность изложения, академик предлагает взглянуть на моральный аспект проблемы – если сознание, это, в том числе, и способность чувствовать боль, то насколько мы жестоки, опуская живых раков в кипящую воду?

Сознание у животных​



Оказывается, что для Анохина этот вопрос не вполне праздный – руководимый им институт (Институт перспективных исследований мозга МГУ имени М.В. Ломоносова) в мае 2023г. организовал в Дхарамсале, Индия (там находится резиденция Его Святейшества Далай Ламы XIV) специальную конференцию «Сознание у животных». Это довольно любопытное мероприятие, так как среди его организаторов также московский Фонд содействия сохранению культурных и философских традиций тибетского буддизма «Сохраним Тибет» в сотрудничестве с Библиотекой тибетских трудов и архивов (Дхарамсала) и Фонд содействия гуманному и ответственному отношению к животным «Кошка ветра» (Москва). Это достаточно загадочная конференция, о которой мало что известно (один пытливый ум собрал всю доступную информацию здесь). "
...а полезно🙂
Имхо
 
"Гораздо более обоснованным и системным, чем у Чалмерса, представляется подход, предпринятый группой из 19 авторов в объёмном исследовании «Consciousness in Artificial Intelligence: Insights from the Science of Consciousness» («Сознание у ИИ: постижение с помощью науки о сознании»), которое было недавно (август 2023) напечатано в arxive.org. Авторы убеждены, что наличие сознания в ИИ лучше всего оценивать, опираясь на нейробиологические теории сознания. Другими словами, сознание (человеческое) можно изучать научно, и результаты такого изучения применимы и к ИИ. Они составили рубрикатор индикаторов, выведенных из нейронаучных теорий сознания, для оценки наличия сознания у ИИ.

Важно понимать три основных принципа, которым следуют авторы в изучении сознания у ИИ:

1. Вычислительный функционализм – убеждение в том, что осуществление вычислений надлежащего вида есть необходимое и достаточное условие наличия сознания. Иными словами, состояние системы следует признать сознательным, если оно «надлежащим образом выполняет надлежащий алгоритм». Они принимают это положение (оспариваемое многими) в качестве рабочей гипотезы по прагматическим соображениям, так как из этой гипотезы следует, что системы ИИ, хотя бы в принципе, могут-таки обладать сознанием.

2. Авторы утверждают, что нейронаучные теории имеют разумную экспериментальную поддержку своих моделей сознания, поэтому и могут помочь в оценке сознательности ИИ. Такие теории выявляют функции, необходимые и достаточные для существования сознания у людей, поэтому, в силу принятого вычислительного функционализма, аналогичные функции были бы достаточны и для наличия сознания у ИИ.

3. Авторы убеждены в правильности «основанного на фундаменте теории подхода»: (1) теоретическое выявление «функциональных примет сознания», (2) оценка экспериментальных данных, подтверждающих такие выводы теории, (3) доверие к принципу вычислительного функционализма, позволяющему распространить выводы нейронаук и на ИИ. Это, по их мнению, разумная альтернатива поведенческим тестам на сознание (типа теста Тьюринга), которые ненадёжны, так как ИИ может быть специально натренирован имитировать поведение человека, работая при этом совершенно другим способом.

В результате обширной работы, авторы установили, что некоторые из теоретически выявленных индикаторов могут быть применимы к ИИ, но «сильного кандидата на обладание сознанием» среди существующих моделей ИИ не найдено.

Несмотря на большие усилия большого коллектива, мне такой подход к оценке сознательности ИИ показался, по крайней мере, спорным. Брать в качестве отправной точки существующие модели сознания (которых много, они противоречат друг другу, не отвечают всему корпусу экспериментальных данных – обо всём этом в следующем параграфе), принимать их положения в качестве надёжных индикаторов сознания и использовать затем эти индикаторы для оценки сознания у ИИ – такая стратегия ведёт лишь к построению некоей «синтетической» модели сознания, основанной на базовых принципах его функциональной организации, так или иначе описываемых в разных научных моделях. Если же мы, вслед за Анохиным и «научным консенсусом», станем трактовать сознание как наличие субъективного опыта и внутренней жизни, то «вычислительный функционализм» никак нам не поможет оценить сознательность ИИ.

Стоит подробно рассмотреть существующие модели сознания, чтобы понять эту мою позицию"
 
"Соответствие между картинкой и текстом на этих, промежуточных, нейронах представлено на иллюстрации. Таких специализированных (по разным признакам) нейронов обнаружено десятки.

Всё это направление Анохин называет «интерпретируемый ИИ» - заглянуть, одновременно, под черепную коробку человека и «под капот» ИИ и сравнить результаты. Его команда занимается этим направлением в рамках опорной лаборатории «Нейронный ИИ» при МГУ им.Ломоносова. В частности, они выявляют условия быстрого возникновения когнитивных специализаций нейронов мозга. Скажем, специальный нейрон, «запоминающий» конкретный участок, по которому проходит подопытное животное, возникает с первого раза и сохраняет свою специализацию долгое время. В то время как обучение искусственных нейронов в ИИ требует сотен миллионов «прогонов».



Есть уже и предварительные теоретические модели того, как такие «умные» нейроны возникают в мозге – например, общий атрибут «красный» для двух изображений (объектов) на входе, активирует и «умный» нейрон, отвечающий именно за красный цвет. Предполагается, что аналогичным образом «умные» нейроны формируются и в глубине искусственных нейронных сетей.

cognit.JPG


Такие эксперименты, с одной стороны, выглядят впечатляюще, так как указывают на некоторое сходство в принципах функционирования биологических и искусственных нейронных сетей. И, если придерживаться описанного выше принципа «вычислительного функционализма», предполагают наличие «минимальной сознательности» у ИИ. Проблема же состоит в том, что нет веских оснований связывать сознание с вычислительной алгоритмической деятельностью. Напомню, что тот же Пенроуз настаивал на «невычислимой» природе мозга, который нельзя воспроизвести алгоритмически, а нужно описывать квантово-механически. Более серьёзное соображение состоит в том, что подобные эксперименты (понимает ли это сам Анохин или нет) направлены именно на поиск «нервных коррелятов» сознания, т.е. поиск нейронов (или групп нейронов), которые ответственны за ту или иную часть субъективного опыта. Такие усилия (как свидетельствуют Чалмерс и Кох) не дали результата за 25 лет поисков, и, как я считаю, не дадут никогда. Тем более, сам Анохин в своей теории когнитома, предлагает изучать коги, «гиперсети нейросетей», отрицая вульгарный физикализм, закрепляющий за определёнными участками мозга определённые фиксированные функции.

Так что, могу констатировать, что «работа (по изучению сознания у ИИ) проделана большая», но мы в самом начале пути"
...ну, пока достаточно🙂
 
Функционализм не то, во что легко поверить
Я повторюсь - что это таки такое?
И какие сложности или преимущества есть у него?
Просто я не знаю, может надо в него спрочно поверить ,а может наоборот, мне это нафиг не надо 🙂
"зачем мне считаться шпоной и бандитом
не лучше ль податься мне в антисемиты?
на их стороне хоть и нету закона
поддержка и энтузиазм миллионов!" (ВСВ).
 
Вот , пусть тут - позицонирование , чего-то, что принадлежит уже будущему типа первых ростков. И вытеснит старое, по определению как бы.
С " пищей будущего"- имхо схожее позиционирование.
И заменители мяса, и молока - многими представлены именно так.
Как телевизор вытесняет кино/театр, и это звучало в старом фильме 🙂
Как нейлон и трикотаж из него пытался вытеснить хлопок с шерстью.
 
"Функционализм - это философская теория, которая утверждает, что ум можно понимать как система функций, а не как вещество или вещь. Это означает, что психические состояния, такие как убеждения, желания и эмоции, считаются не сущностями, которые существуют независимо, а скорее как функции, которые выполняются мозгом"
...ещё одна сторона для удобного моделирования, представления работы мозга, сознания и так далее.
Не Истина в последней инстанции, очевидно.
Как ...блок- схема удобна во многих случаях. Как удобны планы зданий, этажей и квартир - хотя они явно не приравниваются к фотографиям тех же этажей 🙂
И тем более, к самим строениям.
Имхо так.
 

Новые комментарии

LGBT*

В связи с решением Верховного суда Российской Федерации (далее РФ) от 30 ноября 2023 года), движение ЛГБТ* признано экстремистским и запрещена его деятельность на территории РФ. Данное решение суда подлежит немедленному исполнению, исходя из чего на форуме будут приняты следующие меры - аббривеатура ЛГБТ* должна и будет применяться только со звездочкой (она означает иноагента или связанное с экстремизмом движение, которое запрещено в РФ), все ради того чтобы посетители и пользователи этого форума могли ознакомиться с данным запретом. Символика, картинки и атрибутика что связана с ныне запрещенным движением ЛГБТ* запрещены на этом форуме - исходя из решения Верховного суда, о котором было написано ранее - этот пункт внесен как экстренное дополнение к правилам форума части 4 параграфа 12 в настоящее время.

Назад
Сверху