Tuesday, June 16, 2009

Цепи Маркова

Общую информацию можно посмотреть здесь:

Алгоритм, использующий скрытые модели Маркова, и используемый при коррекции ошибок при кодировании речи, в кодеках, используемых в мобилках:
Алгоритм Viterbi (в ссылке есть примеры реализации алгоритма на разных языках)

Энтропийное кодирование.

  1. Кодирование Хаффмана.
  2. Кодирование серий.
  3. Арифметическое кодирование.
Если примерно известны характеристики энтропии потока данных => более простые алгоритмы:
  1. Унарное кодирование.
  2. Гамма-кодирование Элиаса.
  3. Кодирование Фибоначчи.
  4. Кодирование Голомба.
  5. Кодирование Райса.
Некоторая выдержка из Wiki относительно применения цепочек Маркова в теории массового обслуживания:

Queueing theory

Markov chains can also be used to model various processes in queueing theory and statistics.[2] Claude Shannon's famous 1948 paper A mathematical theory of communication, which at a single step created the field of information theory, opens by introducing the concept of entropy through Markov modeling of the English language. Such idealized models can capture many of the statistical regularities of systems. Even without describing the full structure of the system perfectly, such signal models can make possible very effective data compression through entropy coding techniques such as arithmetic coding. They also allow effective state estimation and pattern recognition. The world's mobile telephone systems depend on the Viterbi algorithm for error-correction, while hidden Markov models are extensively used in speech recognition and also in bioinformatics, for instance for coding region/gene prediction. Markov chains also play an important role in reinforcement learning.

Некоторые дополнительные ссылки по теме:

Forward Error Correcting Codes

Entropy encoding

Подписался на блоги:

Antonio Gulli's coding playground

Božský Filip

Friday, June 5, 2009

Чат на .NET

Еще один пример на сокетах.

Powered by Blogger.