dok34.ru
Moderator
" В начале 1960-х г. я понял, что биологи не могут объяснить, для чего существуют два пола, и предложил эволюционную теорию пола (ЭТП), согласно которой два пола – специализация по главным непременным аспектам эволюции: сохранения и изменения. Нет сохранения – нет жизни, нет изменения – жизнь до первого ледникового периода. И то и другое – конец, но второе с отсрочкой.
Женский пол – консервативная подсистема (КП), мужской – опера тивная (ОП). Такая дифференциация повышает устойчивость системы. Она достигается дихронной эволюцией: сначала мужской пол, потом женский, что позволяет каждый новый ген проверять на мужчинах. В этом адаптивный смысл полов (Геодакян 1965; см. также: Он же 1983, 1998).
В статье сделана попытка: 1) внести ясность в понятия энтропии и информации, рассматривая их как бинарную сопряженную дифферен циацию (БСД)*, когда она равна консервативной подсистеме (КП) + опера тивной подсистеме (ОП) (БСД = КП + ОП); 2) предложить новую концеп цию общего строения и предсказуемой эволюции – главных информацион ных молекул (РНК, ДНК, белков) – и показать несколько примеров плоских молекул.
Живые системы возникли от неживых, поэтому при поисках рацио нальных способов их описания было целесообразно сначала обсудить их отношение к методам описания неживых. Это касается прежде всего тако го универсального обобщения естествознания, как термодинамика. Она началась с работы поручика французского флота Сади Карно 1824 г. В 1865 г. Р. Клаузиус, спасая его идею, дал теплоте новую трактовку и ввел понятие энтропии.
Но сделал это так неудачно, что термодинамика стала теорией равновесия. Вклад корифеев науки Дж. Максвелла (кинетическая теория газов, использование «демона», 1871), Дж. У. Гиббса (поня тие химического потенциала, 1875), Г. Гельмгольца (понятие электриче ского потенциала, 1885), Л. Больцмана (связь энтропии и вероятности, 1877, 1896), М. Планка (связь энтропии, излучения и идеи квантов, 1900), теорема В. Нернста (1906) сделали теорию неприкасаемой.
В этой блестящей плеяде я бы выделил удивительную роль Макса Планка, который после почти всех открытий, нанося последний штрих, придавал им завер шенную форму. Это трактовки константы Больцмана, законов Стефана Вина, теоремы Нернста, введение нулевой энтропии и формулировка тре тьего закона термодинамики. Видимо, это были годы, когда, по словам самого ученого, он 5 лет мучительно привыкал к своей идее квантов. Связь энтропии (S) и информации (i) открыл Л. Сцилард (1929), а теория информации К. Шеннона появилась в 1949 г.
Ее пытались применить для описания и понимания биологических явлений, прежде всего филогенеза и онтогенеза. В этом вопросе до сих пор нет ясности, наоборот, много путаницы и непонимания. Особенно в трактовке энтропии и информации.
В плане термодинамики живые системы – открытые рабочие системы. В отличие от физико-химических систем, рабочие взаимоотношения которых со средой полностью описываются процессами передачи вещества и различных видов энергии, в «работе» живых систем главную роль играет информация. Например, в процессах филогенеза, онтогенеза, репродукции, обучения и т. д. доминирующей является именно информа ция.
Теория Шеннона определяет количество информации как меру неоп ределенности данной ситуации, исчезающей после получения сообщения, то есть чем меньше априорная вероятность факта, о котором представлено сообщение, тем больше информации в нем. В более широком смысле под информацией подразумеваются свойства процессов, дополняющие их энергетические и массовые характеристики. Теория игнорировала как смысл информации, так и ценность для по лучателя, хотя идея определять ценность информации через приращение вероятности достижения цели была предложена (Харкевич 1965). Для количественного описания состояния системы и процессов, иду щих в ней, в термодинамике применяются специальные физические пара метры, которые называются обобщенными зарядами, или факторами экстенсивности (Е). К ним относятся: масса, объем, энтропия, электриче ский заряд и др. Внутренняя энергия системы, как известно, определяется совокупностью этих обобщенных зарядов: U = f(E1, E 2, E3, ... En).
Она является функцией состояния, ее изменение можно представить в виде соответствующего полного дифференциала (де Бур 1962): dU = P1dE1+ P2dE2 + ... PndE n, где коэффициенты P – частные дифференциалы от U по всем Е. Они называются обобщенными потенциалами, или факторами интенсивности. Это те силы, которые вызывают перенос соответствующих зарядов и про изводят полезную работу.
Каждому виду заряда соответствует свой, со пряженный с ним потенциал. Добавление в систему того или другого за ряда повышает сопряженный с ним потенциал. Так, увеличение массы во ды в верхнем резервуаре повышает гидравлическое давление, приращение объемного заряда повышает давление газа, теплового заряда – температу ру, электрического заряда – электрический потенциал и т. д.
Изолированная от среды система не может совершить никакой работы. Необходим контакт со средой в виде соответствующего канала связи. Каждой форме контакта со средой отвечает пара сопряженных факторов экстенсивности и интенсивности. Произведение обобщенного потенциала на изменение обобщенного заряда имеет размерность работы и называется обобщенной работой PdE = dA.
Каждой паре сопряженных зарядов и потенциалов со ответствует особого рода рабоа. Таким образом, обобщенные заряды являются теми рабочими субстратами, поток которых производит работу. В отличие от обобщенных зарядов, которые зависят от размеров системы, обобщенные потенциалы от них не зависят. Поэтому при объединении двух систем заряды ведут себя аддитивно, складываются: E = E1 + E2, а потенциалы усредняются: P = (P1E1 + + P2E2)/(E1 + E2).
Идея оказалась очень плодотворной. Через год я применил ее к пяти уровням генетических бинарно-сопряженных дифференциаций (БСД = КП + ОП). В популяции – два пола, в организме – два вида клеток: гаметы + соматические, в клетке – ядро + цитоплазма, в ядре – аутосомы + гоносомы, в нуклеопротеиде (ген, вирус) – ДНК + белки.
Сопоставив неживые и живые рабочие системы, я предложил общую трактовку БСД как аналогов термодинамических обобщенных зарядов–потенциалов, произведение которых дает работу. Позже в эту схему были включены гормоны, гонады, симметрия организмов, мозга, тела, гетеро- и гомосек суальная ориентация, социальные и другие системы.
Было показано, что БСД повышают устойчивость адаптивных систем (Геодакян 1967; 1970; 1971а; 1971б; 1972; 1984; 1987). Экстраполируя КП и ОП в прошлое можно определить неизвестную унитарную систему (УС), от которой они произошли, и получить сопряженную триаду (СТ). Ясно, что превращение КП + ОП = БСД, БСД + + УС = СТ укрупняет разряды информации и упрощает мир. Кроме того, это позволяет определить генеалогические древа систем.
Например, то, что ДНК и белки произошли от РНК, индуктивная наука узнала только в середине 1980-х, открыв переходные формы (РНКподобные белки и белкоподобные РНК). В моей работе (Он же 1967) была приведе- на схема информационных связей КП ↔ ОП ↔ среда, то есть ДНК ↔ бе лок ↔ среда, из которой вытекал еретический тогда вывод, что централь ная догма молекулярной биологии (запрет на поток информации белок → ДНК) неверна. От догмы тихо отказались. Считаю, это неправильно. (В некрологе о почившей в бозе догме надо было указать год ввода и от мены, имя, титулы автора, может быть, список наиболее удачных работ.) Я писал (Там же; 1970), что в попытках использовать теорию информации как инструмент надо помнить, что его нужно создавать и совер шенствовать.
Действительно, что такое информация? Есть ли она у неживых систем? Как она связана с энтропией и какова их роль в живых системах? Есть ли разница между упорядоченностью и организацией? Как их измерить или хотя бы сравнить? У кого больше информации – у зиготы или организма, в генотипе или фенотипе?
Как представить себе качество информации, смысл, ценность? Существует ли закон сохранения информации, наподобие других (массы, энергии, заряда)? Какова роль среды? Одни считали, что информации больше в генотипе, так как из одного генотипа в разных средах получаются разные фенотипы в результате реализации одной из многих возможностей генотипа (Медников 1971; Шмальгаузен 1968). Другие, наоборот, что фенотип взрослого организма несет больше информации, так как он полностью включает информацию генотипа плюс информацию от среды (Гамбург 1972; Равен 1964; Уод дингтон 1970).
Рассчитывали количество информации в зиготе или организме и серьезно толковали о вкладе информации, который вносят молекулы воды или мембраны (Сэтлоу, Поллард 1964; Dancoff, Quastler 1953; Elsasser 1958). Такие расчеты количества информации были преждевременны и фактически бесполезны (Аптер 1970; Геодакян 1971б). В лучшем случае речь могла идти только о верхних пределах, а это почти ничего не дает.
Третьи отождествляли понятия информации и энтропии, считая, что вся разница между ними лишь в том, что они имеют разный знак и разную размерность (Бриллюен 1960; Шамбадаль 1968). Такая трактовка, сводящая понятие информации почти к синониму энтропии, в значительной мере лишена смысла.
Конечно, любой процесс передачи информации сопровождается ростом энтропии, точно так же, как и любой процесс передачи электрических, механических (oбъемных) или химиче ских зарядов. Энтропия, будучи фактором экстенсивности «низкосортной» энергии (тепла), возникает при всех рабочих процессах, связанных с обесценением любого из перечисленных ценных видов потенциала.
Рассматривая информацию в качестве еще одного ценного потенциала наряду с другими (кроме температуры), отношения информации к энтропии мы также должны трактовать аналогично отношениям их зарядов к эн тропии. Отождествление информации с энтропией равносильно отожде ствлению механических или электрических зарядов с энтропией, и то и другое неправомерно.
Я считал, что эффективнее направить усилия на поиски качественных концептуальных решений. Сравнивал положение дел в биологии с физикой начала XX в., когда были нужны не сложные расчеты квантовой механики атома (которые появились значительно позже), а первая качественная догадка Резерфорда о планетарном строении атома. Разные точки зрения, концепции, модели, которые можно сравнивать, пробовать и выбирать.
А для начала нужна непротиворечивая система понятий и связей, вероятности, энтропии, информации, позволяющая нарисовать картину в целом. Тогда же я предложил новую, несколько иную трактовку понятий энтропии, упорядоченности, информации, организации и их взаимо связей, понятий количества и качества информации и др."
...хм, Геодакян, если что 🙂
Женский пол – консервативная подсистема (КП), мужской – опера тивная (ОП). Такая дифференциация повышает устойчивость системы. Она достигается дихронной эволюцией: сначала мужской пол, потом женский, что позволяет каждый новый ген проверять на мужчинах. В этом адаптивный смысл полов (Геодакян 1965; см. также: Он же 1983, 1998).
В статье сделана попытка: 1) внести ясность в понятия энтропии и информации, рассматривая их как бинарную сопряженную дифферен циацию (БСД)*, когда она равна консервативной подсистеме (КП) + опера тивной подсистеме (ОП) (БСД = КП + ОП); 2) предложить новую концеп цию общего строения и предсказуемой эволюции – главных информацион ных молекул (РНК, ДНК, белков) – и показать несколько примеров плоских молекул.
Живые системы возникли от неживых, поэтому при поисках рацио нальных способов их описания было целесообразно сначала обсудить их отношение к методам описания неживых. Это касается прежде всего тако го универсального обобщения естествознания, как термодинамика. Она началась с работы поручика французского флота Сади Карно 1824 г. В 1865 г. Р. Клаузиус, спасая его идею, дал теплоте новую трактовку и ввел понятие энтропии.
Но сделал это так неудачно, что термодинамика стала теорией равновесия. Вклад корифеев науки Дж. Максвелла (кинетическая теория газов, использование «демона», 1871), Дж. У. Гиббса (поня тие химического потенциала, 1875), Г. Гельмгольца (понятие электриче ского потенциала, 1885), Л. Больцмана (связь энтропии и вероятности, 1877, 1896), М. Планка (связь энтропии, излучения и идеи квантов, 1900), теорема В. Нернста (1906) сделали теорию неприкасаемой.
В этой блестящей плеяде я бы выделил удивительную роль Макса Планка, который после почти всех открытий, нанося последний штрих, придавал им завер шенную форму. Это трактовки константы Больцмана, законов Стефана Вина, теоремы Нернста, введение нулевой энтропии и формулировка тре тьего закона термодинамики. Видимо, это были годы, когда, по словам самого ученого, он 5 лет мучительно привыкал к своей идее квантов. Связь энтропии (S) и информации (i) открыл Л. Сцилард (1929), а теория информации К. Шеннона появилась в 1949 г.
Ее пытались применить для описания и понимания биологических явлений, прежде всего филогенеза и онтогенеза. В этом вопросе до сих пор нет ясности, наоборот, много путаницы и непонимания. Особенно в трактовке энтропии и информации.
В плане термодинамики живые системы – открытые рабочие системы. В отличие от физико-химических систем, рабочие взаимоотношения которых со средой полностью описываются процессами передачи вещества и различных видов энергии, в «работе» живых систем главную роль играет информация. Например, в процессах филогенеза, онтогенеза, репродукции, обучения и т. д. доминирующей является именно информа ция.
Теория Шеннона определяет количество информации как меру неоп ределенности данной ситуации, исчезающей после получения сообщения, то есть чем меньше априорная вероятность факта, о котором представлено сообщение, тем больше информации в нем. В более широком смысле под информацией подразумеваются свойства процессов, дополняющие их энергетические и массовые характеристики. Теория игнорировала как смысл информации, так и ценность для по лучателя, хотя идея определять ценность информации через приращение вероятности достижения цели была предложена (Харкевич 1965). Для количественного описания состояния системы и процессов, иду щих в ней, в термодинамике применяются специальные физические пара метры, которые называются обобщенными зарядами, или факторами экстенсивности (Е). К ним относятся: масса, объем, энтропия, электриче ский заряд и др. Внутренняя энергия системы, как известно, определяется совокупностью этих обобщенных зарядов: U = f(E1, E 2, E3, ... En).
Она является функцией состояния, ее изменение можно представить в виде соответствующего полного дифференциала (де Бур 1962): dU = P1dE1+ P2dE2 + ... PndE n, где коэффициенты P – частные дифференциалы от U по всем Е. Они называются обобщенными потенциалами, или факторами интенсивности. Это те силы, которые вызывают перенос соответствующих зарядов и про изводят полезную работу.
Каждому виду заряда соответствует свой, со пряженный с ним потенциал. Добавление в систему того или другого за ряда повышает сопряженный с ним потенциал. Так, увеличение массы во ды в верхнем резервуаре повышает гидравлическое давление, приращение объемного заряда повышает давление газа, теплового заряда – температу ру, электрического заряда – электрический потенциал и т. д.
Изолированная от среды система не может совершить никакой работы. Необходим контакт со средой в виде соответствующего канала связи. Каждой форме контакта со средой отвечает пара сопряженных факторов экстенсивности и интенсивности. Произведение обобщенного потенциала на изменение обобщенного заряда имеет размерность работы и называется обобщенной работой PdE = dA.
Каждой паре сопряженных зарядов и потенциалов со ответствует особого рода рабоа. Таким образом, обобщенные заряды являются теми рабочими субстратами, поток которых производит работу. В отличие от обобщенных зарядов, которые зависят от размеров системы, обобщенные потенциалы от них не зависят. Поэтому при объединении двух систем заряды ведут себя аддитивно, складываются: E = E1 + E2, а потенциалы усредняются: P = (P1E1 + + P2E2)/(E1 + E2).
Идея оказалась очень плодотворной. Через год я применил ее к пяти уровням генетических бинарно-сопряженных дифференциаций (БСД = КП + ОП). В популяции – два пола, в организме – два вида клеток: гаметы + соматические, в клетке – ядро + цитоплазма, в ядре – аутосомы + гоносомы, в нуклеопротеиде (ген, вирус) – ДНК + белки.
Сопоставив неживые и живые рабочие системы, я предложил общую трактовку БСД как аналогов термодинамических обобщенных зарядов–потенциалов, произведение которых дает работу. Позже в эту схему были включены гормоны, гонады, симметрия организмов, мозга, тела, гетеро- и гомосек суальная ориентация, социальные и другие системы.
Было показано, что БСД повышают устойчивость адаптивных систем (Геодакян 1967; 1970; 1971а; 1971б; 1972; 1984; 1987). Экстраполируя КП и ОП в прошлое можно определить неизвестную унитарную систему (УС), от которой они произошли, и получить сопряженную триаду (СТ). Ясно, что превращение КП + ОП = БСД, БСД + + УС = СТ укрупняет разряды информации и упрощает мир. Кроме того, это позволяет определить генеалогические древа систем.
Например, то, что ДНК и белки произошли от РНК, индуктивная наука узнала только в середине 1980-х, открыв переходные формы (РНКподобные белки и белкоподобные РНК). В моей работе (Он же 1967) была приведе- на схема информационных связей КП ↔ ОП ↔ среда, то есть ДНК ↔ бе лок ↔ среда, из которой вытекал еретический тогда вывод, что централь ная догма молекулярной биологии (запрет на поток информации белок → ДНК) неверна. От догмы тихо отказались. Считаю, это неправильно. (В некрологе о почившей в бозе догме надо было указать год ввода и от мены, имя, титулы автора, может быть, список наиболее удачных работ.) Я писал (Там же; 1970), что в попытках использовать теорию информации как инструмент надо помнить, что его нужно создавать и совер шенствовать.
Действительно, что такое информация? Есть ли она у неживых систем? Как она связана с энтропией и какова их роль в живых системах? Есть ли разница между упорядоченностью и организацией? Как их измерить или хотя бы сравнить? У кого больше информации – у зиготы или организма, в генотипе или фенотипе?
Как представить себе качество информации, смысл, ценность? Существует ли закон сохранения информации, наподобие других (массы, энергии, заряда)? Какова роль среды? Одни считали, что информации больше в генотипе, так как из одного генотипа в разных средах получаются разные фенотипы в результате реализации одной из многих возможностей генотипа (Медников 1971; Шмальгаузен 1968). Другие, наоборот, что фенотип взрослого организма несет больше информации, так как он полностью включает информацию генотипа плюс информацию от среды (Гамбург 1972; Равен 1964; Уод дингтон 1970).
Рассчитывали количество информации в зиготе или организме и серьезно толковали о вкладе информации, который вносят молекулы воды или мембраны (Сэтлоу, Поллард 1964; Dancoff, Quastler 1953; Elsasser 1958). Такие расчеты количества информации были преждевременны и фактически бесполезны (Аптер 1970; Геодакян 1971б). В лучшем случае речь могла идти только о верхних пределах, а это почти ничего не дает.
Третьи отождествляли понятия информации и энтропии, считая, что вся разница между ними лишь в том, что они имеют разный знак и разную размерность (Бриллюен 1960; Шамбадаль 1968). Такая трактовка, сводящая понятие информации почти к синониму энтропии, в значительной мере лишена смысла.
Конечно, любой процесс передачи информации сопровождается ростом энтропии, точно так же, как и любой процесс передачи электрических, механических (oбъемных) или химиче ских зарядов. Энтропия, будучи фактором экстенсивности «низкосортной» энергии (тепла), возникает при всех рабочих процессах, связанных с обесценением любого из перечисленных ценных видов потенциала.
Рассматривая информацию в качестве еще одного ценного потенциала наряду с другими (кроме температуры), отношения информации к энтропии мы также должны трактовать аналогично отношениям их зарядов к эн тропии. Отождествление информации с энтропией равносильно отожде ствлению механических или электрических зарядов с энтропией, и то и другое неправомерно.
Я считал, что эффективнее направить усилия на поиски качественных концептуальных решений. Сравнивал положение дел в биологии с физикой начала XX в., когда были нужны не сложные расчеты квантовой механики атома (которые появились значительно позже), а первая качественная догадка Резерфорда о планетарном строении атома. Разные точки зрения, концепции, модели, которые можно сравнивать, пробовать и выбирать.
А для начала нужна непротиворечивая система понятий и связей, вероятности, энтропии, информации, позволяющая нарисовать картину в целом. Тогда же я предложил новую, несколько иную трактовку понятий энтропии, упорядоченности, информации, организации и их взаимо связей, понятий количества и качества информации и др."
...хм, Геодакян, если что 🙂