Что такое findslide.org?

FindSlide.org - это сайт презентаций, докладов, шаблонов в формате PowerPoint.


Для правообладателей

Обратная связь

Email: Нажмите что бы посмотреть 

Яндекс.Метрика

Презентация на тему Информационная биология. Количественное оценивание информации. (Тема 4)

Содержание

Подход к оцениванию информацииВ общей теории информации формальный аппарат для оценки количества информации выделяет, различает три аспекта:А) статистический;Б) семантический;В) прагматический.
Информационная биологияТема 4Количественное оценивание информации Подход к оцениванию информацииВ общей теории информации формальный аппарат для оценки количества Статистический аспектСтатистический аспект информации был разработан применительно к целям и задачам теории Информационная энтропияОсновным, базовым понятием при количественном оценивании информации является энтропия (информационная).Энтропия (физическая) Информационная энтропияЭнтропия – мера вероятности информационных систем (Л. Сциллард, К. Шеннон, 1929)Энтропия Информационная ёмкостьКоличественная мера информации должна отвечать требованию аддитивности.В 1928 г. Хартли предложил Информационная ёмкостьЕсли информационная система может находиться в N возможных состояниях и все Информационная ёмкостьТ.о., информационная ёмкость проявляет свойство аддитивности и, в общем, ёмкость k Информация по-ШеннонуК. Шеннон предложил при расчёте энтропии использовать логарифм с основанием 2. Информация по-ШеннонуH = log N = - log2 P , Н – Информация по-ШеннонуH = - Σ p(i) log 2 p(i)Размерность энтропии – [бит Информация по-ШеннонуЭнтропия, рассчитанная для равновероятных событий, может считаться как априорная Н (апр), Пример со студентамиНа занятии 32 студента. Один из них поощрён и преподаватель АлгоритмСписок студентов, составленный по алфавиту без учёта пола, делится пополам и уточняется, АлгоритмОбщее правило: если есть N элементов и один из них Х как-то Английский алфавит как объект количественного оценивания РезюмеКакое количество энтропии (информации) содержится в сообщении на основе букв английского алфавита?Если РезюмеПоскольку реальная вероятность использования разных букв разная, то с учётом этого обстоятельства РезюмеС учётом всех особенностей английского языка Н = 1.5 бит/символ.Пример с английским Основные понятия статистической теории информацииИнформационная ёмкость сообщения – характеризует источник сообщения;Избыточность Информационная ёмкостьЕсли текст содержит N символов, то информационная ёмкость рассчитывается по формуле Избыточность информации, символовМожно писать текст сокращёнными словами (лекции), но смысл фраз оказывается ИзбыточностьВ английском языке Н = 1.5 бит/символ, в то время как Н(ср.) Расчёт избыточностиИнформационная избыточность может быть рассчитана через относительную энтропию h h = Смысл избыточностиИзбыточность употребляется в том смысле, что часть информации не является необходимой Избыточность и генетический кодИзбыточность конкретной молекулы ДНК необходимо оценивать с учётом ограничений, Избыточность и генетический кодЕсли в молекуле ДНК пропущен или изменен один нуклеотид, Белки и избыточность-Вал-Гис-Лей-Тре-Про-Глу-Глу- норма в г-г-Вал-Гис-Лей-Тре-Про-Вал-Глу- замена одной АК в гемоглобине приводит Пропускная способностьПропускная способность связана со скоростью передачи информации.Пропускная способность среды (канала) –максимальное Помехоустойчивость, надёжностьПомехоустойчивость, надёжность информационных систем – способность безошибочно генерировать, передавать, запоминать и Надёжность ж.с.Живые системы характеризуются высокой надёжностью функционирования. Формально надёжность живых систем определяется Надёжность ж.с.Живые системы – высоко надёжны.Надёжность ж.с. во многом определяется дублированием элементов Примеры использования статистической информацииОдним из первых, оценивших потенциальные возможности теории информации, был ПримерыНейроны     Н Ограниченность использования статистической информации«…Большинство работ с применением теории информации в биологии тривиальны
Слайды презентации

Слайд 2 Подход к оцениванию информации
В общей теории информации формальный

Подход к оцениванию информацииВ общей теории информации формальный аппарат для оценки

аппарат для оценки количества информации выделяет, различает три аспекта:
А)

статистический;
Б) семантический;
В) прагматический.

Слайд 3 Статистический аспект
Статистический аспект информации был разработан применительно к

Статистический аспектСтатистический аспект информации был разработан применительно к целям и задачам

целям и задачам теории связи К. Шенноном. Теория связи

оперирует знаками и абстрагируется от семантического и прагматического аспектов.
Статистическая информация не делает различий между важной, новой информацией, её ценностью, полезностью для того, кто её получает. Такой подход делает количество информации объективной оценкой, но она становится безликой.
Количество информации определяется на основе понятий теории вероятностей, путём оценивания вероятности появления того или иного сигнала, знака, буквы алфавита

Слайд 4 Информационная энтропия
Основным, базовым понятием при количественном оценивании информации

Информационная энтропияОсновным, базовым понятием при количественном оценивании информации является энтропия (информационная).Энтропия

является энтропия (информационная).
Энтропия (физическая) – мера рассеяния энергии в

тепло в замкнутой термодинамической системе (Клаузиус, Больцман, 1852).
S = k ln W [ э.е.],
где S – т.д. энтропия, W – число состояний системы.
1 [э.е.] = 1 кал/град = 4.2 Дж/К

Слайд 5 Информационная энтропия
Энтропия – мера вероятности информационных систем (Л.

Информационная энтропияЭнтропия – мера вероятности информационных систем (Л. Сциллард, К. Шеннон,

Сциллард, К. Шеннон, 1929)
Энтропия – мера дезорганизации систем любой

природы (Шрёдингер, 1944; Л.Бриллюэн, Н. Винер, ?)
Информация и энтропия могут быть связаны соотношением H + I = const.
H-мера беспорядка, I-мера упорядоченности.
1 э.е. = 2.3*10 (-23) бит

Слайд 6 Информационная ёмкость
Количественная мера информации должна отвечать требованию аддитивности.
В

Информационная ёмкостьКоличественная мера информации должна отвечать требованию аддитивности.В 1928 г. Хартли

1928 г. Хартли предложил оценивать информационное содержание систем как

логарифм числа возможных состояний системы, назвав это «информационная ёмкость .
С = log N = - log 1/N = - log P = H
Информационная ёмкость нашей аудитории…….

Слайд 7 Информационная ёмкость
Если информационная система может находиться в N

Информационная ёмкостьЕсли информационная система может находиться в N возможных состояниях и

возможных состояниях и все они взаимно независимы, то информационная

ёмкость такой системы равна C = log N.
Две таких системы будут иметь N в квадрате состояний , т.к. каждому состоянию 1-й системы будут соответствовать N возможных состояний 2-й. Информационная ёмкость двух систем будет равна

C1 + C2 = log (N 2) = 2 log N = 2C

Слайд 8 Информационная ёмкость
Т.о., информационная ёмкость проявляет свойство аддитивности и,

Информационная ёмкостьТ.о., информационная ёмкость проявляет свойство аддитивности и, в общем, ёмкость

в общем, ёмкость k систем будет в k раз

больше ёмкости одной системы.
Информационная ёмкость по-другому называется мера Хартли. При расчёте может использоваться логарифм с любым основанием (десятичный, натуральный), но это привносит некую неопределённость при использовании в расчётах.


Слайд 9 Информация по-Шеннону
К. Шеннон предложил при расчёте энтропии использовать

Информация по-ШеннонуК. Шеннон предложил при расчёте энтропии использовать логарифм с основанием

логарифм с основанием 2. Он исходил из необходимости решения

задачи о количестве информации в каналах связи при условии: есть сигнал или его нет (два варианта состояния, двоичное кодирование).
При равновероятных событиях «есть-нет» количество энтропии как меры неопределённости (или информации, нужной для устранения этой неопределённости), будет равна числу необходимых двоичных выборов. Математически это равно двоичному логарифму числа состояний.


Слайд 10 Информация по-Шеннону
H = log N = - log2

Информация по-ШеннонуH = log N = - log2 P , Н

P ,
Н – количество энтропии в битах [бит],

N - число равновероятных состояний системы,
Р – вероятность нахождения системы в некотором состоянии.
Для кубика с разным числом точек на каждой грани вероятность нахождения в каждом из состояний равновелика (1/6).
В реальности состояния и свойства систем характеризуются разными вероятностями (что-то более, что-то менее вероятно).
Поэтому для определения энтропии не равновероятных событий используется более сложная формула, учитывающая сумму вероятностей всех событий.

2


Слайд 11 Информация по-Шеннону
H = - Σ p(i) log 2

Информация по-ШеннонуH = - Σ p(i) log 2 p(i)Размерность энтропии –

p(i)
Размерность энтропии – [бит /символ].
Смысл – сколько надо сделать

двоичных выборов (вопросов), чтобы снять, устранить неопределённость величиной Н.
Для определения количества полной информации в тексте сообщения необходимо
I = - N Σ p(i) log 2 p(i), N – число символов в сообщении.
Размерность [бит ];
1 бит- количество информации, необходимой для передачи или хранения двоичного символа (0,1), ,(1,0).

2


Слайд 12 Информация по-Шеннону
Энтропия, рассчитанная для равновероятных событий, может считаться

Информация по-ШеннонуЭнтропия, рассчитанная для равновероятных событий, может считаться как априорная Н

как априорная Н (апр), в то время как рассчитанная

для не равновероятных событий считается апостериорной (после опыта) – действительно, вероятности-то определены опытным путём) Н (апост).
Поэтому иногда информация определяется как устранённая неопределённость по формуле I = Н (апр) – Н (апост)

Слайд 13 Пример со студентами
На занятии 32 студента. Один из

Пример со студентамиНа занятии 32 студента. Один из них поощрён и

них поощрён и преподаватель должен определить его, не вызывая

по фамилии .
Сколько вопросов с ответами «да-нет» должен задать преподаватель, чтобы идентифицировать студента?
Эта процедура идентична оцениванию информации в битах.

Слайд 14 Алгоритм
Список студентов, составленный по алфавиту без учёта пола,

АлгоритмСписок студентов, составленный по алфавиту без учёта пола, делится пополам и

делится пополам и уточняется, есть ли студент в первой

половине. Круг поиска суживается вдвое (с 32 до 16). Действуя аналогично число претендентов сужается и 5-м вопросом преподаватель узнаёт необходимое.
H = log 32 = 5 [бит/символ «студент»]

2


Слайд 15 Алгоритм
Общее правило:
если есть N элементов и один

АлгоритмОбщее правило: если есть N элементов и один из них Х

из них Х как-то должен быть обнаружен, то для

этого необходимо иметь информацию, достаточную чтобы устранить неопределённость Н.
H = log N.
Эту величину можно считать мерой Хартли, оцененной в битах.

2


Слайд 16 Английский алфавит как объект количественного оценивания

Английский алфавит как объект количественного оценивания

Слайд 17 Резюме
Какое количество энтропии (информации) содержится в сообщении на

РезюмеКакое количество энтропии (информации) содержится в сообщении на основе букв английского

основе букв английского алфавита?
Если все буквы передаются с одинаковой

вероятностью, то р =1/27;
H = -log2 1/27 = 4.76 бит/символ(букву).
Это аналогично тому, что необходимо 5 ячеек памяти для 0 и 1. Или же необходимо задать 5 вопросов «да-нет», чтобы определить любую искомую букву алфавита.

Слайд 18 Резюме
Поскольку реальная вероятность использования разных букв разная, то

РезюмеПоскольку реальная вероятность использования разных букв разная, то с учётом этого

с учётом этого обстоятельства Н = 4.03 бит/символ. Т.е.

число двоичных ответов, необходимых для идентификации буквы уменьшилось.
Н уменьшается ещё больше, если учесть наличие дифтонгов или трифтонгов (th, tch), кода вероятность появления определённых букв после t возрастает. С учётом этого энтропия понижается до Н = 3.35 бит/символ для 2-х букв и Н = 3.1 бит/символ для 3-х.

Слайд 19 Резюме
С учётом всех особенностей английского языка Н =

РезюмеС учётом всех особенностей английского языка Н = 1.5 бит/символ.Пример с

1.5 бит/символ.
Пример с английским алфавитом иллюстрирует два важных положения

статистической информации: а) когда все вероятности знаковых событий равны, количество энтропии Н максимально; б) если вероятность данного сообщения (знака) связана с вероятностью появления другого сообщения (знака), величина энтропии Н уменьшается

Слайд 20 Основные понятия статистической теории информации
Информационная ёмкость сообщения –

Основные понятия статистической теории информацииИнформационная ёмкость сообщения – характеризует источник

характеризует источник сообщения;
Избыточность символов – характеризует источник сообщения;
Пропускная способность

канала связи – характеризует канал связи;
Надёжность, помехоустойчивость – характеризует всю информационную систему в целом.

Слайд 21 Информационная ёмкость
Если текст содержит N символов, то информационная

Информационная ёмкостьЕсли текст содержит N символов, то информационная ёмкость рассчитывается по

ёмкость рассчитывается по формуле Шеннона:

Н = I = -Σ P(i)log P(i);
Или же: Информационная ёмкость - это количество информации в битах, содержащейся в оцениваемом сообщении
I = H(апр) – H(апост)

2


Слайд 22 Избыточность информации, символов
Можно писать текст сокращёнными словами (лекции),

Избыточность информации, символовМожно писать текст сокращёнными словами (лекции), но смысл фраз

но смысл фраз оказывается вполне понятен.
Полностью записанный текст содержит

больше символов, чем требуется для однозначного понимания содержания.
Наличие чрезмерного количества знаков для написания сообщения называется избыточностью и может измеряться в битах

Слайд 23 Избыточность
В английском языке Н = 1.5 бит/символ, в

ИзбыточностьВ английском языке Н = 1.5 бит/символ, в то время как

то время как Н(ср.) = 4.7 бит/символ. Получается, что

3.2 бит/символ лишние
Для чего необходима избыточность? Избыточность знаков, сообщений необходима как условие, препятствующее появлению искажения, ошибок.
При отсутствии избыточности любой сбой в системе связи приводит к возможности появления не обнаруживаемых и не исправляемых ошибок в принятой информации.
Такая информация – зашумлённая,
искажённая.

Слайд 24 Расчёт избыточности
Информационная избыточность может быть рассчитана через относительную

Расчёт избыточностиИнформационная избыточность может быть рассчитана через относительную энтропию h h

энтропию h
h = H(эмп.) / H(макс.). Для англ.

алф.
h = 1.5/4.7 = 0.32.

Величина относительной энтропии h используется для оценки избыточности
D = 1 – h = 1 - 0.32 = 0.68.

Избыточность – безразмерная величина

Слайд 25 Смысл избыточности
Избыточность употребляется в том смысле, что часть

Смысл избыточностиИзбыточность употребляется в том смысле, что часть информации не является

информации не является необходимой для передачи и понимания смысла

сообщения.
Избыточность по Шеннону - это техническое понятие в теории информации для количественной технической оценки избыточности.
Но, вычисленное значение избыточности не всегда можно соотнести с конкретным содержанием или пониманием чего-либо.

Слайд 26 Избыточность и генетический код
Избыточность конкретной молекулы ДНК необходимо

Избыточность и генетический кодИзбыточность конкретной молекулы ДНК необходимо оценивать с учётом

оценивать с учётом ограничений, связанных с частотой встречаемости определённых

соседних нуклеотидов. Если есть данные по всем 4 основаниям ДНК, то можно корректно оценить избыточность.
Л. Гетлин вычислила избыточность ДНК разного происхождения и обнаружила, что она очень низка, в пределах 0 – 11%.
Однако у некоторых ДНК избыточность велика. Сателитная ДНК краба имеет избыточность 83%. ДНК некоего вируса имеет следующий состав: А = 87%, Т = 10,5%, Ц = 1,4%, Г = 0,4%. Это приводит к очень высокой избыточности генетической информации.

Слайд 27 Избыточность и генетический код
Если в молекуле ДНК пропущен

Избыточность и генетический кодЕсли в молекуле ДНК пропущен или изменен один

или изменен один нуклеотид, то биологические последствия в большинстве

случаев могут быть очень серьёзные.
Рассмотрим пример с последовательностями
-А-А-Г-Г-Г-У-Ц-Ц-А-У-Ц-А-Ц-У-У-А-А-
-А-А-Г-Г-У-Ц-Ц-А-У-Ц-А-Ц-У-У-А-А-
Такая мутация происходит в ДНК фага Т4.
В результате последовательность АК в молекуле кодируемого белка лизоцима
-Лиз-Сер-Про-Сер-Лей—Асп-Ала- меняется
-Лиз-Вал-Гис-Лей—Мет-Ала-
Образуется белок с другими свойствами.

Слайд 28 Белки и избыточность
-Вал-Гис-Лей-Тре-Про-Глу-Глу- норма в г-г
-Вал-Гис-Лей-Тре-Про-Вал-Глу- замена одной

Белки и избыточность-Вал-Гис-Лей-Тре-Про-Глу-Глу- норма в г-г-Вал-Гис-Лей-Тре-Про-Вал-Глу- замена одной АК в гемоглобине

АК в гемоглобине приводит к серповидно-клеточной анемии.
Поэтому понятие генетической

или белковой избыточности имеет другой характер, чем в технической теории информации. Пропуск одного «слова» полностью обесценивает сообщение, которое нельзя исправить.
Поэтому в процессе передачи генетической информации есть системы исправления ошибок на уровне тРНК.
Аминоацил-АМФ и Аминоацил-тРНК.

Слайд 29 Пропускная способность
Пропускная способность связана со скоростью передачи информации.
Пропускная

Пропускная способностьПропускная способность связана со скоростью передачи информации.Пропускная способность среды (канала)

способность среды (канала) –максимальное количество единиц информации (бит), которые

данная среда (канал) может безошибочно пропустить через себя в единицу времени.
П.С. канала связи – максимальная скорость безошибочной передачи сигнала (информации) в данной среде, измеряемая в бит/ сек.
В общем случае п.с. канала определяется:
C = 1/T max I (X – Y) [бит/сек];
С = В log2 (1 + S/N) [бит/сек];
В – полоса сигнала, Гц; S – cредняя мощность сигнала; N – средняя мощность шума.


Слайд 30 Помехоустойчивость, надёжность
Помехоустойчивость, надёжность информационных систем – способность безошибочно

Помехоустойчивость, надёжностьПомехоустойчивость, надёжность информационных систем – способность безошибочно генерировать, передавать, запоминать

генерировать, передавать, запоминать и воспроизводить информацию.
Мера надёжности передачи сообщения

выражается следующим образом:
S = log 1/ P(0),
где Р(0) – вероятность ошибочной передачи сигнала

2


Слайд 31 Надёжность ж.с.
Живые системы характеризуются высокой надёжностью функционирования. Формально

Надёжность ж.с.Живые системы характеризуются высокой надёжностью функционирования. Формально надёжность живых систем

надёжность живых систем определяется следующим:

S = 1/Р(0), где Р(0) – вероятность нарушения функции системы.
При Р(0) – минимум, S – максимальна.

Слайд 32 Надёжность ж.с.
Живые системы – высоко надёжны.
Надёжность ж.с. во

Надёжность ж.с.Живые системы – высоко надёжны.Надёжность ж.с. во многом определяется дублированием

многом определяется дублированием элементов или функций. Т.е. одновременно процесс

выполняется параллельными элементами и число их избыточно.
При повреждении или необратимой утрате некоторого количества клеток, органов, объектов цель, результат их функционирования не пострадает.
Примеры: избыточное число нуклеотидов, нервных волокон в нерве, избыточные кладки яиц, семян и т.д.

Слайд 33 Примеры использования статистической информации
Одним из первых, оценивших потенциальные

Примеры использования статистической информацииОдним из первых, оценивших потенциальные возможности теории информации,

возможности теории информации, был Г.Кастлер, который в 1955 г.

издал книгу о биологических приложениях этой теории. В частности, Кастлер подсчитал, что ДНК млекопитающих обладает информационной ёмкостью 2 * 10(10) бит
Это эквивалентно информации 100 комплектов Британской энциклопедии.

Слайд 34 Примеры
Нейроны Н

ПримерыНейроны   Н

F
Helix 1.1-2-0 бит 1.2 ПД/c
Речной рак 2 – 3.7 бит 2.2 ПД/c
Лягушка 1.4-3.7 бит 4.1 ПД/c
Крыса 2.9-4 бит 5.0 ПД/c
Кролик 3 -4.7 бит 5.8 ПД/c
Имеет место постепенное нарастание фонового импульсного потока по мере эволюционного совершенствования нервных структур, информационные возможности увеличиваются.

  • Имя файла: informatsionnaya-biologiya-kolichestvennoe-otsenivanie-informatsii-tema-4.pptx
  • Количество просмотров: 117
  • Количество скачиваний: 0