Посмотреть

МИНИСТЕРСТВО ОБРАЗОВАНИЯ И НАУКИ РФ
УРАЛЬСКИЙ ГОСУДАРСТВЕННЫЙ ЛЕСОТЕХНИЧЕСКИЙ
УНИВЕРСИТЕТ
КАФЕДРА ИНФОРМАЦИОННЫХ ТЕХНОЛОГИЙ И МОДЕЛИРОВАНИЯ
Анянова Е.В.
Теоретические основы информатики
Контрольные работы
для студентов направлений 38.03.05 «Бизнес-информатика»
всех форм обучения
Екатеринбург
2014
Примерные контрольные задания по дисциплине
1 – 10. Определить количество информации (по Хартли), содержащееся
в системе, информационная емкость которой характеризуется десятичным
числом Q. Закодировать это число по двоичной системе счисления.
№ 1
Q 500
2
1000
3
750
4
1250
5
250
6
1500
7
650
8
900
9
1100
10
1600
11 – 20. Определить среднее количество информации, содержащееся в
сообщении, используемом три независимых символа S1, S2, S3. Известны
вероятности появления символов p(S1)=p1, p(S2)=p2, p(S3)=p3. Оценить
избыточность сообщения.
№ 11
p1 0,1
p2 0,15
p3 0,75
12
0,2
0,1
0,7
13
0,3
0,15
0,55
14
0,1
0,3
0,6
15
0,15
0,2
0,65
16
0,1
0,4
0,5
17
0,2
0,25
0,55
18
0,2
0,3
0,5
19
0,05
0,15
0,8
20
0,15
0,25
0,6
21 – 30. В условии предыдущей задачи учесть зависимость между
символами, которая задана матрицей условных вероятностей P(Sj / Si).
 0,8 0 0,2 


21.  0 0,5 0,5 
 0,1 0,5 0,4 


 0 0,4 0,6 


22.  0,7 0,1 0,2 
 0,5 0 0,5 


 0,6 0,2 0,2 


23.  0,3 0 0,7 
 0 0,4 0,6 


 0,2 0 0,8 


24.  0,5 0,1 0,4 
 0 0,3 0,7 


 0,1 0,8 0,1 


25.  0 0,3 0,7 
 0,4 0 0,6 


 0 0,2 0,8 


26.  0,5 0 0,5 
 0,4 0,3 0,3 


 0,4 0 0,6 


27.  0,8 0,1 0,1 
 0 0,3 0,7 


 0,3 0,2 0,5 


28.  0 0,1 0,9 
 0,2 0 0,8 


 0 0,3 0,7 


29.  0,1 0,3 0,6 
 0,6 0 0,4 


 0,5 0,5 0 


30.  0,3 0,3 0,4 
 0 0,7 0,3 


2
Примерные темы рефератов
1. Теория информации. Базовые понятия теории информации.
2. Способы измерения информации. Вероятностный подход к
измерению дискретной и непрерывной информации.
3. Понятие энтропии. Энтропия дискретной случайной величины.
4. Понятие префиксного кодирования. Сжатие информации. Основная
теорема о кодировании при отсутствии помех.
5. Метод блокирования.
6. Формы представления информации в персональном компьютере.
7. Основные понятия алгебры логики.
8. Отличие информации от данных.
9. Формы адекватности информации и их особенности.
10. Меры информации.
11. Характеристики для оценки качества информации.
12. Виды классификации информации.
13. Иерархическую систему классификации.
14. Фасетную систему классификации.
15. Дескрипторную систему классификации.
16. Назначение системы кодирования информации.
17. Основные
идеи
классификационного
и
регистрационного
кодирования.
18. Классификацию информации, циркулирующей в организации.
УЧЕБНО-МЕТОДИЧЕСКОЕ ОБЕСПЕЧЕНИЕ ДИСЦИПЛИНЫ
Студенту доступна любая книга из межбиблиотечной компьютерной
системы Екатеринбурга и Свердловской области и электронные журналы.
№ Автор, наименование
Год издания
Основная литература
1 В. В. Трофимов [и др.]
2014
Информатика [Текст]: учебник / В. В.
Трофимов [и др.] ; под ред. В. В.
Трофимова ; С.-Петерб. гос. ун-т
экономики и финансов. - М. : Юрайт,
2014. - 911 с. : ил. - (Основы наук). Библиогр. в конце разд.
2 Теоретические основы информатики:
2014
учебное
пособие
по
дисциплине
"Информатика" для студентов вузов: для
бакалавров и специалистов / А. А. Забуга. Москва [и др.]: Питер, 2014. - 208 с.
3 Г. И. Хохлов
2008
Основы теории информации [Текст] :
учебное пособие / Г. И. Хохлов. - М. :
Академия, 2008. - 176 с.
Дополнительная литература
3
Количество
2
15
2
4
5
Под ред. проф. Макаровой
Информатика. Учебник / Под ред. проф.
Макаровой.- М.: И74 Финансы и
статистика, 2001. - 768с.
Информатика. Базовый курс: учеб.
пособие для втузов/ под ред. С. В.
Симоновича. - 2-е изд.. - СПб.: Питер,
2005. - 640 с.: ил.. - (Учебник для вузов). Библиогр.: с. 631.
электронное
обеспечение
4
2001
2
2005
21