Entropia Rényi'ego
Prowadzący: Piotr Migdał
(uwaga: 10 czerwca dodałem kilka linków do zadań i komentarzy co do ich ważności; ale treść zadań taka sama)
Opis
Filozof może się zadowolić tym, że "wie, że nic nie wie".
Fizyk zaś potrzebuje wiedzieć ile nie wie.
Pojęcie entropii ma swoje źródło w termodynamice i jest związane z tym jak bardzo nie znamy dokładnego mikrostanu układu (tj. położenia i pędu każdej cząstki). Tylko gdy wiemy o nim wszystko, możemy w pełni wykorzystać jego energię, przekształcając ją na inne formy. Gdy nie - część energii pozostaje niejako uwięziona.
Entropia jest równie cenna w teorii informacji - pozwala ściśle zmierzyć jak dobrze możemy skompresować daną wiadomość oraz jak bardzo możemy niwelować szum przy jej przesyłaniu. Przydaje się ona również jako miara losowości i korelacji w różnych narzędziach statystycznych.
O ile entropia jest używana w języku potocznym jako chaos i nieuporządkowanie, to sama wielkość (a konkretniej, entropia Shannona) jest ściśle określonym pojęciem:
\(H = \sum_{i=1}^{n} p_i \log \left(\tfrac{1}{p_i} \right)\)
My jednak zajmiemy się pewnych uogólnieniem, entropią Rényi'ego:
\(H_\alpha = \frac{1}{1-\alpha}\log\left( \sum_{i=1}^n p_i^\alpha \right)\)
Entropia Rényi'ego przydaje się w:
- liczenia niepewności tam, gdzie nie chcemy (lub nie możemy!) skorzystać z wariancji.
- liczeniu wymiaru fraktalnego,
- szacowaniu różnorodności populacji w ekologii,
- parametryzacji nierówności społecznych,
- lepszej zasadzie nieoznaczoności,
- do oszacowania entropi Shannona.
Wymagania
Na zajęciach będziemy zarówno dowodzić jej własności, jak i pokazywać zastosowania (część - na kartce, część - na komputerze). Warszaty mat/fiz - czyli zarówno będziemy korzystać z nierówności Jensena, jak i machać rękami starając się wyciągać fizyczne wnioski.
Wymagane umiejętności zostaną sprawdzone w zadaniach. Ale będą nimi:
- potrafić operować na logarytmie,
- podstawy entropii Shannona (patrz - linkowane rozdziały w sekcji poniżej),
- umieć różniczkować,
- wiedzieć do to jest całka \(\int f(x) dx\) (ale nie będziemy liczyć trudnych całek).
Przydatne rzeczy
Czyli gdzie zaczynać swoją przygodę z entropią.
- Thomas M. Cover, Joy A. Thomas, Elements of Information Theory (niesamowicie dobrze napisany wstęp do entropii i teorii informacji)
- David MacKay, Information Theory, Inference, and Learning Algorithms (pdf oficjalnie dostępny za darmo!)