Главная
страница 1страница 2 ... страница 11страница 12
  1. История и предмет правовой информатики


Курс "Введение в правовую информатику" логически продолжает курсы "Информатика и математика", "Компьютерные технологии в юридической деятельности".

Правовая информатика считается молодой наукой, Предпосылки к ее зарождению – появление первых судебных разбирательств, терминологии, обмена правовыми знаниями, роста правовых знаний, изменение характера и структуры правовых и коммуникационных отношений.

Персональный компьютер впервые становится средством и стимулятором автоформализации правовых знаний и перехода от использования компьютера исключительно специалистами к "пользовательскому" использованию, например, грамотными юристами.

Информатика от "бумажной" стадии своего развития переходит к "безбумажной", электронной стадии своего развития и использования.

В конце прошлого века возник так называемый информационный кризис, "информационный взрыв", который проявился в резком росте объема научно-технической публикации и СМИ.

Информационный поток увеличился и в правовой области. Возникли большие сложности восприятия, переработки информации, выделения нужной информации из общего потока и др. В этих условиях появилась необходимость в едином и доступном мировом информационном пространстве, развитии методов и технологии информатики, а также самой информатики как методологии актуализации информации. Стали формироваться базовые технологии и системы, возникла необходимость в пересмотре роли информатики в обществе, науке, технологии.

Появление информатики как науки базируется на индустрии сбора, обработки, передачи, использования информации, на продуктах развития математики, физики, управления, техники, лингвистики, военной науки и других наук.

Термин "информатика" (l’informatique) был введен французскими учеными и означает науку обработки информации с помощью различных автоматических средств.

Термин "информатика" образован соединением слов "информация" и "автоматика".

Сейчас термин "информатика" обозначает науку имеющую три ветви – теоретическую, практическую и инженерно-техническую, занимающиеся проблемами информационных процессов и систем, их актуализации.

Правовая информатика – наука, изучающая информацию, информационные процессы, технологии и системы в сфере права, а также некоторые правовые аспекты и особенности актуализации таких процессов и систем.

В правовую информатику входят и социально-экономические гуманитарно-образовательные и другие аспекты.

Предметная область правовой информатики – информационные системы в области права, технологии их актуализации.

Мировоззренческая роль правовой информатики состоит, в частности, в том, что она помогает вникать в информационную суть правовых процессов и явлений.

Воспитательная роль правовой информатики состоит, в частности, в развитии алгоритмического мышления, логичности и строгости суждений, умения выделять главное и игнорировать второстепенное и др.

Культурная роль правовой информатики состоит, в частности, в повышении информационной и компьютерной культуры мышления, культуры поведения и выбора.


  1. Кодирование. Принцип Кирхгоффа.


Кодирование информации — процесс преобразования сигнала из формы, удобной для непосредственного использования информации, в форму, удобную для передачи, хранения или автоматической переработки.

При́нцип Керкго́ффса — правило разработки криптографических систем, согласно которому в засекреченном виде держится только определённый набор параметров алгоритма, называемый ключом, а остальные детали могут быть открыты без снижения стойкости алгоритма ниже допустимых значений. Другими словами, при оценке надёжности шифрования необходимо предполагать, что противник знает об используемой системе шифрования всё, кроме применяемых ключей.

Впервые данный принцип сформулировал в XIX веке голландский криптограф Огюст Керкгоффс. Шеннон сформулировал этот принцип (вероятно, независимо от Керкгоффса) следующим образом: «Враг знает систему». Широко применяется в криптографии.

Сущность принципа заключается в том, что чем меньше секретов содержит система, тем выше её безопасность. Так, если утрата любого из секретов приводит к разрушению системы, то система с меньшим числом секретов будет надёжней. Чем больше секретов содержит система, тем более она ненадёжна и потенциально уязвима. Чем меньше секретов в системе — тем выше её прочность.

Принцип Керкгоффса направлен на то, чтобы сделать безопасность алгоритмов и протоколов независимой от их секретности; открытость не должна влиять на безопасность.

Большинство широко используемых систем шифрования, в соответствии с принципом Керкгоффса, используют известные, не составляющие секрета криптографические алгоритмы. С другой стороны, шифры, используемые в правительственной и военной связи, как правило, засекречены; таким образом создаётся «дополнительный рубеж обороны».

Требования к криптосистеме впервые изложены в книге Керкгоффса «Военная криптография» (издана в 1883 году). Шесть основных требований к криптосистеме, все из которых до настоящего времени определяют проектирование криптографически стойких систем, в переводе с французского звучат так:

шифр должен быть физически, если не математически, невскрываемым

система не должна требовать секретности, на случай, если она попадёт в руки врага

ключ должен быть простым, храниться в памяти без записи на бумаге, а также легко изменяемым по желанию корреспондентов

зашифрованный текст должен [без проблем] передаваться по телеграфу

аппарат для шифрования должен быть легко переносимым, работа с ним не должна требовать помощи нескольких лиц

аппарат для шифрования должен быть относительно прост в использовании, не требовать значительных умственных усилий или соблюдения большого количества правил.

  1. Мера Шеннона.


В основу теории информации положен предложенный К.Шенноном метод исчислений количества новой (непредсказуемой) и избыточной (предсказуемой) информации, содержащейся в сообщениях, передаваемых по каналам технической связи.

Предложенный Шенноном метод измерения количества информации оказался настолько универсальным, что его применение не ограничивается теперь узкими рамками чисто технических приложений.

В статистической физике с помощью вероятностной функции энтропии исследуются процессы, приводящие к термодинамическому равновесию, при котором все состояния молекул (их энергии, скорости) приближаются к равновероятным, а энтропия при этом стремится к максимальной величине.

Благодаря теории информации стало очевидно, что с помощью той же самой функции можно исследовать и такие далекие от состояния максимальной энтропии системы, как, например, письменный текст.

Еще один важный вывод заключается в том, что с помощью вероятностной функции энтропии можно анализировать все стадии перехода системы от состояния полного хаоса, которому соответствуют равные значения вероятностей и максимальное значение энтропии, к состоянию предельной упорядоченности (жесткой детерминации), которому соответствует единственно возможное состояние ее элементов.

Данный вывод оказывается в равной мере справедливым для таких несходных по своей природе систем, как газы, кристаллы, письменные тексты, биологические организмы или сообщества и др.

При этом, если для газа или кристалла при вычислении энтропии сравнивается только микросостояние (т.е. состояние атомов и молекул) и макросостояние этих систем (т.е. газа или кристалла как целого), то для систем иной природы (биологических, интеллектуальных, социальных) вычисление энтропии может производится на том или ином произвольно выбранном уровне. При этом вычисляемое значение энтропии рассматриваемой системы и количество информации, характеризующей степень упорядоченности данной системы и равное разности между максимальным и реальным значением энтропии, будет зависеть от распределения вероятности состояний элементов нижележащего уровня, т.е. тех элементов, которые в своей совокупности образуют эти системы.

Другими словами, количество сохраняемой в структуре системы информации пропорционально степени отклонения системы от состояния равновесия, обусловленного сохраняемым в структуре системы порядком.

Сам того не подозревая, Шеннон вооружил науку универсальной мерой, пригодной в принципе (при условии выявления значенй всех вероятностей) для оценки степени упорядоченности всех существующих в мире систем.

Опредеделив введенную Шеноном информационную меру как меру упорядоченности движения, можно установить взаимосвязь информации и энергии, считая энергию мерой интенсивности движения. При этом количество сохраняемой в структуре систем информации пропорционально суммарной энергии внутренних связей этих систем.

Одновременно с выявлением общих свойств информации как феномена обнаруживаются и принципиальные различия относящихся к различным уровням сложности информационных систем.

Так, например, все физические объекты, в отличие от биологических, не обладают специальными органами памяти, перекодировки поступающих из внешнего мира сигналов, информационными каналами связи. Хранимая в них информация как бы «размазана» по всей их структуре. Вместе с тем, если бы кристаллы не способны были сохранять информацию в определяющих их упорядоченность внутренних связях, не было бы возможности создавать искусственную память и предназначенные для обработки информации технические устройства на основе кристаллических структур.

Вместе с тем необходимо учитывать, что создание подобных устройств стало возможным лишь благодаря разуму человека, сумевшего использовать элементарные информационные свойства кристаллов для построения сложных информационных систем.

Простейшая биологическая система превосходит по своей сложности самую совершенную из созданных человеком информационных систем. Уже на уровне простейших одноклеточных организмов задействован необходимый для их размножения сложнейший информационный генетический механизм. В многоклеточных организмах помимо информационной системы наследственности действуют специализированные органы хранения информации и ее обработки (например, системы, осуществляющие перекодирование поступающих из внешнего мира зрительных и слуховых сигналов перед отправкой их в головной мозг, системы обработки этих сигналов в головном мозге). Сложнейшая сеть информационных коммуникаций (нервная система) пронизывает и превращает в целое весь многоклеточный организм.

Определить эти границы Шеннону пришлось на самом начальном этапе создания теории информации, поскольку без этого нельзя было использовать количественную меру информации для оценки письменных текстов и других созданных разумом человека информационных систем. Именно с этой целью

Шеннон делает оговорку о том, что предложенный им метод исчисления информации письменных текстов игнорирует такие же их неотъемлемые свойства, как смысл и ценность содержащихся в них сообщений.

Так, например, при подсчете количества информации, содержащейся в таких двух сообщениях, как «очередную партию Каспаров играет белыми» и «у гражданина Белова родился сын» получится одна и та же величина – 1 бит. Нет сомнения, что два этих сообщения несут разный смысл и имеют далеко не равнозначную ценность для гражданина Белова. Однако, как было отмечено выше, оценка смысла и ценности информации находится за пределами компетенции теории информации и поэтому не влияет на подсчитываемое с помощью формулы Шеннона количество бит.

Игнорирование смысла и ценности информации не помешало Шеннону решать прикладные задачи, для которых предназначалась первоначально его теория: инженеру по технике связи вовсе не обязательно вникать в суть сообщений, передаваемых по линии связи. Его задача заключается в том, чтобы любое подобное сообщение передавать как можно скорее, с наименьшими затратами средств (энергии, диапазона используемых частот) и, по возможности, безо всяких потерь. И пусть тот, кому предназначена данная информация

(получатель сообщений), вникает в смысл, определяет ценность, решает, как использовать ту информацию, которую он получил.

Такой сугубо прагматичный подход позволил Шеннону ввести единую, не зависящую от смысла и ценности, меру количества информации, которая оказалась пригодной для анализа всех обладающих той или иной степенью упорядоченности систем.

После основополагающих работ Шеннона начали разрабатываться основы смысловой (семантической) и ценностной (прагматической, аксиологической) информационных теорий .

Однако ни одной из этих теорий и предлагаемых их авторами единиц измерения ценности или смысла не суждено было приобрести такую же степень универсальности, какой обладает мера, которую ввел в науку Шеннон.

Упорядоченность текста (или любой другой исследуемой системы) будет тем больше, чем больше различие вероятностей и чем больше вероятность последующего события будет зависеть от вероятностей предыдущих событий.
Методы исчисления информации, предложенные Шенноном, позволяют выявить соотношение количества предсказуемой (то есть формируемой по определенным правилам) информации и количества той неожиданной информации, которую нельзя заранее предсказать.
Содержащуюся в правилах информацию Шеннон определил как избыточную, потому что знание правил построения сообщений позволяет предсказывать появление букв (или других символов) раньше, чем они будут сообщены по линии связи.

Таким способом удается в той или иной степени «разгрузить» предназначенный для передачи сообщений канал. Проведенный Шенноном анализ английских текстов показал, что содержащаяся в них избыточная информация составляет около 80% от общего количества информации, которое заключает в себе письменный текст. Остальные 20% - это та самая энтропия, благодаря которой текст может служить источником непредсказуемой энергии [2].

Если бы текстовые, устные или зрительные (в частности телевизионные) сообщения были полностью лишены энтропии, они не приносили бы получателям сообщений никаких новостей.

Если бы письменный текст строился только на основании заранее сформулированных правил, то, установив эти правила по тексту первой страницы, можно было бы заранее предсказать, что будет написано на страницах 50, 265, 521 и т.д.



следующая страница >>
Смотрите также:
История и предмет правовой информатики
840.48kb.
12 стр.
Информатика как наука. Предмет и задачи информатики. Место информатики в ряду фундаментальных наук. Информатика и Computer Science. История развития информатики и средств вычислительной техники. Информационные ресурсы
49.61kb.
1 стр.
Основы правовой информатики (юридические и математические вопросы информатики)
3027.48kb.
33 стр.
Информатика. Предмет информатики. Основные задачи информатики
494.74kb.
11 стр.
Реферат по дисциплине «История информатики» «История развития систем распознавания речи»
189.71kb.
1 стр.
Вопросы по информатике
253.4kb.
1 стр.
История как наука: объект, предмет, источники, методы и функции История
663.63kb.
4 стр.
Проект резолюция Всероссийского Съезда учителей информатики
90.19kb.
1 стр.
В настоящее время курс «Основы искусственного интеллекта» является базовым при подготовке учителей информатики по специальности 030100. 00 информатика
788.06kb.
6 стр.
Основная образовательная программа по специальности «география» 050103 (032500) Утверждено на заседании Совета егф
51.68kb.
1 стр.
Доклад По истории информатики на тему "История развития технологий передачи голосовых данных"
69.68kb.
1 стр.
История информатики: исследования, публикации, преподавание
111.78kb.
1 стр.