Что такое findslide.org?

FindSlide.org - это сайт презентаций, докладов, шаблонов в формате PowerPoint.


Для правообладателей

Обратная связь

Email: Нажмите что бы посмотреть 

Яндекс.Метрика

Презентация на тему по информатике Понятие информации

Содержание

Информация.Информация- сведения, разъяснения, изложения.
Понятие «информация»Свойства информации Информация.Информация- сведения, разъяснения, изложения. Информация-Общенаучное понятие. Используется в различных науках: информатике, физике, кибернетике, биологии, и т.д. В физике:Энтропия – хаос, отсутствие информацииАнтиэнтропия – мера упорядоченности и сложности системы. В биологии:Понятие связывается с поведением живых организмов, которое строится на основе получения В кибернетике:Понятие связано с процессами управления в сложных системах (живых организмах или ЧЕЛОВЕК И ИНФОРМАЦИЯ   ОРГАНЫ  ЧУВСТВ   информационные ДЕКЛАРАТИВНЫЕЗ Н А Н И ЯПРОЦЕДУРНЫЕЗ Н А Н И ЯЗнания: о ВОСПРИЯТИЕ ИНФОРМАЦИИЧеловек воспринимает информацию из внешнего мира с помощью всех своих органов ФОРМЫ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИФормальные ЯЗЫКИ ЯЗЫК – это знаковый способпредставления  информации Естественные ЗНАКОВАЯ И ОБРАЗНАЯ ИНФОРМАЦИЯИнформацияОБРАЗНАЯОБРАЗЫЯЗЫКИ зрительные звуковые вкусовые обонятельные осязательныеЕСТЕСТВЕННЫЕФОРМАЛЬНЫЕЗНАКОВАЯ ЯЗЫК – это знаковый способ представления информации. Общение на языках - это ХРАНЕНИЕИНФОРМАЦИИПЕРЕДАЧАИНФОРМАЦИИМ О З Г человека носитель информацииВнутренняя памятьВнешние носители информации Внешняя памятьМатематические АНАЛОГИЯ МЕЖДУ КОМПЬЮТЕРОМ И ЧЕЛОВЕКОМ В  памяти  компьютера х р ПЕРЕДАЧА ИНФОРМАЦИИ    ПЕРЕДАЧА ИНФОРМАЦИИ происходит между источником и приемником Формы и способы передачи информации ЖестЗвукОгоньБумагаЦветОсязаниеОбоняние ОБРАБОТКА ИНФОРМАЦИИ Свойства информации Понятная - на определённом языкеПолезная – практическая ценностьДостоверная и актуальная – средства ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ   Получение любых знаний должно идти от известного к ЗнаниеНезнание ЗнаниеЧем большим объёмом познаний обладает человек, тем больше он ощущает недостаток знанийУвеличение границы незнания Уменьшение неопределённости знанийЕсли некоторое сообщение приводит к уменьшению неопределённости знаний. То такое Монета может упасть в одно из двух положений, «орёл» или «решка»т.е. события Единицы измерения количества информации За единицу количества информации принимается такое количество информации, которое содержит сообщение, уменьшающее ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИСИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА русские (РУССКИЕ) буквы латинские (LAT) буквы цифры При равновероятных событиях можно воспользоваться формулой Хартли, чтобы определить количество информации I АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИМОЩНОСТЬ АЛФАВИТА число символов в алфавите (его размер)NИНФОРМАЦИОННЫЙ Число равновероятных в о з м о ж н ы х с ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА    ЗАДАЧА    Книга, подготовленная Для определения количество информации i, содержащейся в сообщении о том, что произошло Например: вычислим количество информации в сообщении о том, ч то из колоды ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕNi  Определение количества информации, содержащейся в сообщении о том, что КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ   Задача 1.  При угадывании СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ    Сообщение о том, что Вероятность пусть при бросании несимметричной четырёхгранной пирамидки вероятность отдельных событий будет:Р1= 1/2 i 1= log2(1/0.5) = log22 = 1бит i 2= log2(1/0.25) = log24= При равновероятностных событиях формула Шеннона переходит в формулу Хартли: т.к. Р1=Р2=Р3…=1/Ni = МЕТОД БИНАРНОГО ПОИСКАТребуется угадать задуманное число из диапазона чисел от 1 до
Слайды презентации

Слайд 2 Информация.
Информация- сведения, разъяснения, изложения.

Информация.Информация- сведения, разъяснения, изложения.

Слайд 3 Информация-
Общенаучное понятие.
Используется в различных науках: информатике, физике,

Информация-Общенаучное понятие. Используется в различных науках: информатике, физике, кибернетике, биологии, и т.д.

кибернетике, биологии, и т.д.


Слайд 4 В физике:
Энтропия – хаос, отсутствие информации
Антиэнтропия – мера

В физике:Энтропия – хаос, отсутствие информацииАнтиэнтропия – мера упорядоченности и сложности

упорядоченности и сложности системы.
Увеличивается сложность системы – энтропия

уменьшается, т.е. величина информации увеличивается.
Пример: Открытые, обменивающиеся с окружающей средой системы живой природы.

Слайд 5 В биологии:
Понятие связывается с поведением живых организмов, которое

В биологии:Понятие связывается с поведением живых организмов, которое строится на основе

строится на основе получения использования организмом информации об окружающей

среде.
Генетическая информация передаётся по наследству и хранится во всех клетках живых организмов.
Клонирование :


Слайд 6 В кибернетике:
Понятие связано с процессами управления в сложных

В кибернетике:Понятие связано с процессами управления в сложных системах (живых организмах

системах (живых организмах или технических устройствах).
Процессы управления включают в

себя получение, хранение, преобразование и передачу информации.

Слайд 7
ЧЕЛОВЕК И ИНФОРМАЦИЯ
ОРГАНЫ ЧУВСТВ

ЧЕЛОВЕК И ИНФОРМАЦИЯ  ОРГАНЫ ЧУВСТВ  информационные  каналы человека

информационные
каналы человека

( зрение, слух, вкус,
осязание, обоняние )

Восприятие
информации

Классификация
з н а н и й

Процедурные
з н а н и я

Декларативные
з н а н и я

Символьная
ф о р м а
( я з ы к и )

Формальные
я з ы к и

Естественные
я з ы к и

Графическая
ф о р м а

Мощность алфавита
Информационный вес символа
Информационный объем текста

Единицы информации: бит, байт,
килобайт, мегабайт, гигабайт

Информация и знания

Представление информации

Информационные процессы

Внутренняя
п а м я т ь

В н е ш н я я
п а м я т ь

Х р а н е н и е
информации

Источник информации

Информационный канал

Поиск информации

Обработка информации

Передача информации

Приемник информации

Измерение информации
алфавитный подход


Слайд 8


ДЕКЛАРАТИВНЫЕ
З Н А Н И Я










ПРОЦЕДУРНЫЕ
З Н А

ДЕКЛАРАТИВНЫЕЗ Н А Н И ЯПРОЦЕДУРНЫЕЗ Н А Н И ЯЗнания:

Н И Я







Знания:
о явлениях
о событиях
о свойствах

объектов
о зависимостях

Я знаю, как . . .



ИНФОРМАЦИЯ И ЗНАНИЯ. КЛАССИФИКАЦИЯ ЗНАНИЙ


ЗНАНИЯ

Я знаю, что . . .

Знания, определяющие действия для достижения какой-либо цели


Слайд 9
ВОСПРИЯТИЕ ИНФОРМАЦИИ

Человек воспринимает информацию из внешнего мира с

ВОСПРИЯТИЕ ИНФОРМАЦИИЧеловек воспринимает информацию из внешнего мира с помощью всех своих

помощью всех своих органов чувств, которые являются информационными каналами,

связывающими человека с внешним миром.

Слайд 10


ФОРМЫ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИ
Формальные ЯЗЫКИ

ЯЗЫК – это знаковый

ФОРМЫ ПРЕДСТАВЛЕНИЯ ИНФОРМАЦИИФормальные ЯЗЫКИ ЯЗЫК – это знаковый способпредставления информации Естественные

способ
представления информации
Естественные ЯЗЫКИ

Мимика и жесты
Графическая форма
представления


информации

✌ ? ? ? ☜ ☝ ? 


Слайд 11


ЗНАКОВАЯ И ОБРАЗНАЯ ИНФОРМАЦИЯ




Информация
ОБРАЗНАЯ
ОБРАЗЫ
ЯЗЫКИ
зрительные
звуковые
вкусовые
обонятельные

ЗНАКОВАЯ И ОБРАЗНАЯ ИНФОРМАЦИЯИнформацияОБРАЗНАЯОБРАЗЫЯЗЫКИ зрительные звуковые вкусовые обонятельные осязательныеЕСТЕСТВЕННЫЕФОРМАЛЬНЫЕЗНАКОВАЯ

осязательные
ЕСТЕСТВЕННЫЕ
ФОРМАЛЬНЫЕ
ЗНАКОВАЯ







Слайд 12

ЯЗЫК – это знаковый способ представления информации. Общение

ЯЗЫК – это знаковый способ представления информации. Общение на языках -

на языках - это процесс передачи информации в знаковой

форме.

ЕСТЕСТВЕННЫЕ

ФОРМАЛЬНЫЕ

ЯЗЫКИ

Устная речь

Письменность

фонемы

фонемы

фонемы

фонемы




символы

слова

фразы

Естественные (разговорные) языки имеют национальную принадлежность.
Примеры естественных языков: русский, английский, китайский, французский и пр. . . .

Формальный язык – это язык профессионального общения или определенной области знаний.


ЯЗЫКИ ЕСТЕСТВЕННЫЕ И ФОРМАЛЬНЫЕ

математическая символика
нотная грамота (язык музыки)
шахматная нотация
языки программирования
. . . . . . . . . . . . . . . . . . . . . . . . . . . .


Слайд 13

ХРАНЕНИЕ
ИНФОРМАЦИИ
ПЕРЕДАЧА
ИНФОРМАЦИИ

М О З Г человека
носитель информации
Внутренняя память

Внешние

ХРАНЕНИЕИНФОРМАЦИИПЕРЕДАЧАИНФОРМАЦИИМ О З Г человека носитель информацииВнутренняя памятьВнешние носители информации Внешняя

носители
информации
Внешняя память

Математические
вычисления
Логические
рассуждения
Поиск информации
КОДИРОВАНИЕ
СТРУКТУРИРОВАНИЕ

ИСТОЧНИК
ИНФОРМАЦИИ
К а

н а л
передачи
информации

ПРИЕМНИК
ИНФОРМАЦИИ



помехи

КДУ

Кодирующее
устройство

ДКДУ

Декодирующее
устройство


ВИДЫ ИНФОРМАЦИОННЫХ ПРОЦЕССОВ

О п е р и р о в а н и е
исходной информацией
по определенным
правилам с целью
получения новой
и н ф о р м а ц и и

ОБРАБОТКА
ИНФОРМАЦИИ


Слайд 14


АНАЛОГИЯ МЕЖДУ КОМПЬЮТЕРОМ И ЧЕЛОВЕКОМ

В памяти

АНАЛОГИЯ МЕЖДУ КОМПЬЮТЕРОМ И ЧЕЛОВЕКОМ В памяти компьютера х р а

компьютера
х р а н я т с

я
данные и программы

Информационный обмен
в к о м п ь ю т е р е

Ввод

Вывод

ПАМЯТЬ

ПРОЦЕССОР

По своему назначению компьютер –
универсальное техническое средство
для работы человека с информацией


Слайд 15
ПЕРЕДАЧА ИНФОРМАЦИИ



ПЕРЕДАЧА ИНФОРМАЦИИ происходит

ПЕРЕДАЧА ИНФОРМАЦИИ  ПЕРЕДАЧА ИНФОРМАЦИИ происходит между источником и приемником по

между источником и приемником по информационным каналам связи.
Источник

информации

Приемник информации

Канал связи

Источник информации – это объект (субъект), который передает информацию приемнику

Приемник информации – это объект (субъект), который принимает информацию от источника

Канал связи – это среда, способ или техническое средство, позволяющее передать информацию от источника к приемнику


Источник
информации

Приемник
информации

Защита от шума (технические способы защиты каналов связи + избыточный код)

Шум (помехи)

ДКДУ – декодирующее устройство

КДУ – кодирующее устройство

КДУ

ДКДУ

Канал связи


Слайд 16 Формы и способы передачи информации
Жест
Звук
Огонь
Бумага
Цвет
Осязание
Обоняние



Формы и способы передачи информации ЖестЗвукОгоньБумагаЦветОсязаниеОбоняние

Слайд 17 ОБРАБОТКА ИНФОРМАЦИИ

ОБРАБОТКА ИНФОРМАЦИИ

Слайд 18 Свойства информации

Свойства информации

Слайд 19 Понятная - на определённом языке
Полезная – практическая ценность
Достоверная

Понятная - на определённом языкеПолезная – практическая ценностьДостоверная и актуальная –

и актуальная – средства массовой информации
Недостоверная – может стать

причиной социальных потрясений.
Полная и точная – чтобы ориенитроваться в окружающем мире.





Слайд 20

ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ
Получение любых знаний должно

ИНФОРМАТИВНОСТЬ СООБЩЕНИЙ  Получение любых знаний должно идти от известного к

идти от известного к неизвестному (новому), от простого к

сложному. И тогда каждое новое сообщение будет понятным, а значит, будет нести новую информацию для человека.

НОВИЗНА

Информативное сообщение содержит новые сведения, ранее не известные человеку.
Пример неинформативного сообщения: «Дважды два – четыре»






ПОНЯТНОСТЬ

Принцип последовательности в обучении

Сообщение несет информацию для человека (является информативным), если заключенные в сообщении сведения являются для этого человека новыми и понятными.


Новые и понятные
сведения

?

Новые
знания

Логическая связь


Слайд 21 Знание
Незнание
Знание
Чем большим объёмом познаний обладает человек,
тем

ЗнаниеНезнание ЗнаниеЧем большим объёмом познаний обладает человек, тем больше он ощущает недостаток знанийУвеличение границы незнания

больше он ощущает недостаток знаний
Увеличение границы незнания


Слайд 22 Уменьшение неопределённости знаний
Если некоторое сообщение приводит к уменьшению

Уменьшение неопределённости знанийЕсли некоторое сообщение приводит к уменьшению неопределённости знаний. То

неопределённости знаний. То такое сообщение содержит информацию.
Этот подход позволяет

количественно измерить информацию.
Рассмотрим пример с бросанием монеты.

Слайд 23 Монета может упасть в одно из двух положений,

Монета может упасть в одно из двух положений, «орёл» или «решка»т.е.

«орёл» или «решка»т.е. события равновероятны.
Перед броском – существует неопределённость

знаний.
После броска – она уменьшается в два раза
Чем больше количество возможных событий, тем больше начальная неопределённость и соответственно тем большее количество информации будет содержать сообщение о результатах опытов.

Слайд 24 Единицы измерения количества информации

Единицы измерения количества информации

Слайд 25 За единицу количества информации принимается такое количество информации,

За единицу количества информации принимается такое количество информации, которое содержит сообщение,

которое содержит сообщение, уменьшающее неопределённость знаний в два раза.
Такая

единица названа «БИТ»

Слайд 26

ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИ
СИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА
русские (РУССКИЕ) буквы

ЕДИНИЦЫ ИЗМЕРЕНИЯ ИНФОРМАЦИИСИМВОЛЬНЫЙ АЛФАВИТ КОМПЬЮТЕРА русские (РУССКИЕ) буквы латинские (LAT) буквы

латинские (LAT) буквы
цифры (1, 2, 3, 4, 5,

6, 7, 8, 9, 0)
математические знаки (+, -, *, /, ^, =)
прочие символы («», №, %, <, >, :, ;, #, &)

Слайд 27 При равновероятных событиях можно воспользоваться формулой Хартли, чтобы

При равновероятных событиях можно воспользоваться формулой Хартли, чтобы определить количество информации

определить количество информации I или посчитать количество возможных событий

N
N = 2 i
В случае, если события имеют различные вероятности реализации, то будем применять вероятностный подход, и воспользуемся формулой Шеннона:

Н= P1log2(1/P1)+ P2log2(1/P2)+…+ PNlog2(1/PN)


Слайд 28
АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ


МОЩНОСТЬ АЛФАВИТА
число символов

АЛФАВИТНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИМОЩНОСТЬ АЛФАВИТА число символов в алфавите (его

в алфавите (его размер)
N
ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации в одном

символе

I = K × i

i


АЛФАВИТ – это вся совокупность символов, используемых в некотором
языке для представления информации
МОЩНОСТЬ АЛФАВИТА ( N ) – это число символов в алфавите.

2 i = N


ЧИСЛО СИМВОЛОВ В СООБЩЕНИИ

K

КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ

I

N

i

I

K


Слайд 29




Число
равновероятных
в о з м о

Число равновероятных в о з м о ж н ы х

ж н ы х
с о б ы

т и й

N

К о л и ч е с т в о
и н ф о р м а ц и и
в сообщении о том,
что произошло одно из N
равновероятных событий

i

N = 2

i = 1 бит

Число символов в алфавите
(его размер) – МОЩНОСТЬ АЛФАВИТА

N

ИНФОРМАЦИОННЫЙ ВЕС СИМВОЛА
количество информации
в одном символе

2 i = N


I = K × i

K

I

Число символов
в символьном сообщении

Количество информации
в символьном сообщении

i

i = 8 бит = 1 байт

1 байт

1 Кб

1 Мб

1 Гб

1024

1024

1024

ИНФОРМАЦИЯ

N = 256


КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ

Содержательный подход

Алфавитный подход

ИЗМЕРЕНИЕ


Слайд 30
ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА

ЗАДАЧА

ИНФОРМАЦИОННЫЙ ОБЪЕМ ТЕКСТА  ЗАДАЧА   Книга, подготовленная с помощью

Книга, подготовленная с помощью компьютера, содержит

150 страниц. На каждой странице – 40 строк, в каждой строке – 60 символов (включая пробелы между словами). Каков объем информации в книге?

РЕШЕНИЕ
Мощность компьютерного алфавита равна 256, поэтому один символ несет 1 байт информации. Значит, страница книги содержит 40 × 60 = 2400 байт информации.
[кол-во символов в строке] × [кол-во строк] = [информационный объем страницы]
Объем всей информации в книге (в разных единицах):
[информационный объем страницы] × [кол-во страниц] = [информационный объем книги]
2400 × 150 = 360 000 байт / 1024 = 351,5625 Кбайт / 1024 = 0,34332275 Мбайт


Слайд 31 Для определения количество информации i, содержащейся в сообщении

Для определения количество информации i, содержащейся в сообщении о том, что

о том, что произошло одно из N равновероятных событий,

нужно решить показательное уравнение:
2 i = N или логарифмическую функцию: I = log2N – читается: логарифм от N по основанию 2.
Смысл выражения: это степень в которую нужно возвести 2, чтобы получилось N.


Слайд 32 Например: вычислим количество информации в сообщении о том,

Например: вычислим количество информации в сообщении о том, ч то из

ч то из колоды карт случайным образом достали даму

пик (в колоде 36 карт):
I = log236 = 5,16993 бит


Слайд 33
ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕ
N
i
Определение количества информации, содержащейся в

ПОКАЗАТЕЛЬНОЕ УРАВНЕНИЕNi Определение количества информации, содержащейся в сообщении о том, что

сообщении о том, что произошло одно из N равновероятных

событий

N

i

Определение количества равновероятных событий N, если известно, сколько информации человек получил в сообщении о том, что произошло одно из этих событий.

2 i = N


Слайд 34 КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ

Задача 1.

КОЛИЧЕСТВО ИНФОРМАЦИИ В СООБЩЕНИИ  Задача 1. При угадывании целого числа

При угадывании целого числа в диапазоне от

1 до N
было получено 6 бит информации . Чему равно N ?
Решение задачи 1. Значение N определяется из формулы N = 2 i .
После подстановки значения i = 6 получаем: N = 2 6 = 64.

Задача 2. В корзине лежат 16 шаров разного цвета . Сколько информации несет сообщение о том , что из корзины достали красный шар ?
Решение задачи 2: Вытаскивание из корзины любого из 16 шаров – события равновероятные. Поэтому для решения задачи применима формула 2 i = N. Здесь N = 16 – число шаров. Решая уравнение 2 I =16 получаем ответ: i = 4 бита

2 i = N

N

i

Количество равновероятных возможных событий

Количество информации в сообщении о том, что произошло одно из N равновероятных событий.


Слайд 35 СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ

СОДЕРЖАТЕЛЬНЫЙ ПОДХОД К ИЗМЕРЕНИЮ ИНФОРМАЦИИ  Сообщение о том, что произошло

Сообщение о том, что произошло одно событие из двух

равновероятных (неопределенность знания уменьшилась в два раза), несет 1 бит информации.


СОДЕРЖАТЕЛЬНЫЙ ПОДХОД к измерению информации заключается в том, что количество информации связывается с содержанием (смыслом) полученного человеком сообщения. Количество информации, заключенное в сообщении, тем больше, чем более оно пополняет наши знания (уменьшает неопределенность наших знаний).


8 цветных шаров в корзине – 8 равновероятных событий

Неопределенность знания о том, что из корзины может быть извлечен шар красного цвета, равна 8.


Слайд 36 Вероятность
пусть при бросании несимметричной четырёхгранной пирамидки вероятность

Вероятность пусть при бросании несимметричной четырёхгранной пирамидки вероятность отдельных событий будет:Р1=

отдельных событий будет:
Р1= 1/2 (0,5), Р2= 1/4(0,25), Р3= 1/8(0,125),

Р4= 1/8(0,125)
Тогда количество информации после реализации каждого можно рассчитать по:
2 i = 1/Р – или через логарифмическую функцию: i = log2(1/Р)

Слайд 37 i 1= log2(1/0.5) = log22 = 1бит
i

i 1= log2(1/0.5) = log22 = 1бит i 2= log2(1/0.25) =

2= log2(1/0.25) = log24= 2бита
i 3= log2(1/0.125) = log28=

3бита
i 4= log2(1/0.125) = log28= 3бита
Воспользуемся формулой Шеннона, чтобы посчитать среднюю информативность сообщения: Н= P1log2(1/P1)+ P2log2(1/P2)+…+ PNlog2(1/PN)
Н= 0,5*1+0,25*2+0,125*3+0,125*3=1.75 бита
Количество информации в сообщении зависит от вероятности этого события. Чем меньше вероятность, тем больше информации несёт сообщение о нём.


Слайд 38 При равновероятностных событиях формула Шеннона переходит в формулу

При равновероятностных событиях формула Шеннона переходит в формулу Хартли: т.к. Р1=Р2=Р3…=1/Ni

Хартли: т.к. Р1=Р2=Р3…=1/N
i = log2(1/N)= log24= 2 бита т.е.
при

бросании симметричной пирамидки. Когда события равновероятны, мы получаем большее количество информации(2 бита), чем при бросании несимметричной(1,75), когда события неравновероятны.

  • Имя файла: prezentatsiya-po-informatike-ponyatie-informatsii.pptx
  • Количество просмотров: 148
  • Количество скачиваний: 0