For faster navigation, this Iframe is preloading the Wikiwand page for Ентропія Реньї.

Ентропія Реньї

Матеріал з Вікіпедії — вільної енциклопедії.

У теорії інформації ентропія Реньї — узагальнення ентропії Шеннона — є сімейством функціоналів, використовуваних як міра кількісної різноманітності, невизначеності або випадковості деякої системи. Названо на честь Альфреда Реньї.

Якщо деяка система має дискретну множину доступних станів , якій відповідає розподіл імовірностей для (тобто  — ймовірності перебування системи в станах ), то ентропія Реньї з параметром (при і ) системи визначається як

,

де кутовими дужками позначено математичне очікування за розподілом ( — ймовірність перебування системи в деякому стані як випадкова величина), логарифм береться за основою 2 (для рахунку в бітах) чи іншою зручною основою (більшою від 1). Основа логарифма визначає одиницю вимірювання ентропії. Так, у математичній статистиці зазвичай використовується натуральний логарифм.

Якщо всі ймовірності , тоді за будь-якого ентропія Реньї . Інакше -ентропія спадає як функція . Причому вищі значення (що прямують до нескінченності) надають ентропії Реньї значення, більшою мірою визначені лише найвищими ймовірностями подій (тобто внесок в ентропію малоймовірних станів зменшується). Проміжний випадок у границі дає ентропію Шеннона, яка має особливі властивості. Нижчі значення (що прямують до нуля), дають значення ентропії Реньї, яке зважує можливі події рівномірніше, менше залежно від їх імовірностей. А при отримуємо максимально можливу -ентропію, рівну незалежно від розподілу (тільки аби ).

Сенс параметра можна описати, кажучи неформальною мовою, як сприйнятливість функціоналу до відхилення стану системи від рівноважного: що більше , то швидше зменшується ентропія за відхилення системи від рівноважного стану. Сенс обмеження полягає в тому, щоб забезпечувалося збільшення ентропії за наближення системи до рівноважного (більш імовірного) стану. Ця вимога є природною для поняття «ентропія». Слід зауважити, що для ентропії Цалліса, яка еквівалентна ентропії Реньї з точністю до незалежного від монотонного перетворення[en], відповідне обмеження часто опускають, при цьому для від'ємних значень параметра замість максимізації ентропії використовують її мінімізацію.

Ентропія Реньї відіграє важливу роль в екології і статистиці, визначаючи так звані індекси різноманітності. Ентропія Реньї також важлива в квантовій інформації, її можна використовувати як міру складності. У ланцюжку Гейзенберга ентропію Реньї розраховано в термінах модулярних функцій, що залежать від . Вони також призводять до спектру показників фрактальної розмірності.

Ηα для деяких конкретних значень α

[ред. | ред. код]

Деякі окремі випадки

[ред. | ред. код]
  • при ентропія Реньї не залежить від імовірностей станів (вироджений випадок) і дорівнює логарифму числа станів (логарифму потужності множини ):
.

Цю ентропію іноді називають ентропією Гартлі[en]. Вона використовується, наприклад, у формулюванні принципу Больцмана.

  • У границі при , можна показати, використовуючи правило Лопіталя, що збігається до ентропії Шеннона. Таким чином, сімейство ентропій Реньї можна довизначити функціоналом
.
  • Квадратична ентропія, іноді звана ентропією зіткнень, — це ентропія Реньї з параметром :
,

де і  — незалежні випадкові величини, однаково розподілені на множині з імовірністю (). Квадратична ентропія використовується у фізиці, обробці сигналів, економіці.

  • Існує границя
,

яку називають min-ентропією[en], тому що це найменше значення . Ця ентропія також є виродженим випадком, оскільки її значення визначається тільки найбільш імовірним станом.

Нерівності для різних значень α

[ред. | ред. код]

Два останніх випадки пов'язані співвідношенням . З іншого боку, ентропія Шеннона може бути як завгодно високою для розподілу X із фіксованою min-ентропією.

тому що .
, тому що .
відповідно до нерівності Єнсена .

Розходження (дивергенції) Реньї

[ред. | ред. код]

Крім сімейства ентропій, Реньї також визначив спектр мір розходжень (дивергенцій), які узагальнюють розходження Кульбака — Лейблера. Формули цього розділу записано в загальному вигляді — через логарифм за довільною основою. Тому потрібно розуміти, що кожна наведена формула являє собою сімейство еквівалентних функціоналів, визначених з точністю до сталого (додатного) множника.

Розходження Реньї з параметром , де і , розподілу відносно розподілу (або «відстань від до ») визначається як

або (формально, без урахування нормування ймовірностей)

,
.

Як і розходження Кульбака — Лейблера, розходження Реньї є невід'ємним для .

Деякі окремі випадки

[ред. | ред. код]
  • При дивергенція Реньї не визначена, однак сімейство дивергенцій можна довизначити елементом
 : мінус логарифм від суми ймовірностей , таких що відповідні .
  •  : відстань Бгаттачар'я (мінус логарифм від коефіцієнта Бгаттачар'я, несуттєвим множником нехтуємо). Це розходження, з точністю до монотонного перетворення[en], еквівалентне відстані Геллінгера[en] та сферичній відстані Бгаттачар'я — Рао[ru], проте на відміну від них не задовольняє нерівності трикутника, а тому не є метрикою в просторі розподілів.
  •  : розходження Кульбака — Лейблера (дорівнює математичному сподіванню відносно розподілу логарифма відношення ймовірностей ).
  •  : логарифм математичного сподівання за розподілом відношення ймовірностей . Це розходження з точністю до монотонного перетворення еквівалентне розходженню хі-квадрат[en] .
  •  : Логарифм найбільшого відношення ймовірностей .

Чому випадок  — особливий[уточнити]

[ред. | ред. код]

Значення , яке відповідає ентропії Шеннона і розходженню Кульбака — Лейблера, є особливим, тому що тільки в цьому випадку можна виділити змінні A і X зі спільного розподілу ймовірностей, такі що виконується

для ентропії, і

-

для дивергенції.

Останнє означає, що якщо ми шукатимемо розподіл , який зводить до мінімуму розходження деяких основоположних мір , і отримаємо нову інформацію, яка впливає тільки на розподіл , то розподіл не буде залежати від змін .

У загальному випадку розходження Реньї з довільними значеннями задовольняють умовам незаперечності, неперервності та інваріантності відносно перетворення координат випадкових величин. Важливою властивістю будь-яких ентропії і дивергенції Реньї є адитивність: коли і незалежні, з випливає

і

.

Найсильніші властивості випадку , які передбачають визначення умовної інформації і взаємної інформації з теорії зв'язку, можуть бути дуже важливими в інших застосуваннях або зовсім не важливими, залежно від вимог цих застосувань.

Перехресна ентропія Реньї

[ред. | ред. код]

Перехресна ентропія від двох розподілів з імовірностями і () в загальному випадку може визначатися по-різному (залежно від застосування), але має задовольняти умові . Один з варіантів визначення (аналогічну властивість має перехресна ентропія Шеннона):

.

Інше визначення, запропоноване А. Реньї, можна отримати з таких міркувань. Визначимо ефективне число станів системи як середнє геометричне зважене від величин з вагами :

.

Звідси випливає вираз для перехресної ентропії Шеннона

.

Міркуючи аналогічно, визначимо ефективне число станів системи як середнє степеневе зважене від величин з вагами і параметром :

.

Таким чином, перехресна ентропія Реньї має вигляд

.
  • Легко бачити, що в разі, якщо розподіли ймовірностей і збігаються, перехресна ентропія Реньї збігається з ентропією Реньї.
  • Також при перехресна ентропія Реньї збігається до перехресної ентропії Шеннона.
  • властивість , істинна для перехресної ентропії Шеннона, в загальному випадку не має місця. Перехресна ентропія Реньї може бути як більшою, так і меншою від ентропії Реньї.

Неперервний випадок

[ред. | ред. код]

Для формального узагальнення ентропії Шеннона на випадок неперервного розподілу служить поняття диференціальна ентропія. Цілком аналогічно визначається диференційна ентропія Реньї:

.

Розходження (дивергенція) Реньї в неперервному випадку також є узагальненням розходження Кульбака — Лейблера і має вигляд

.

Визначення перехресної ентропії, запропоноване А. Реньї, в неперервному випадку має вигляд

.

У наведених формулах і  — деякі функції густини розподілу ймовірностей, визначені на інтервалі , і покладається , .

Література

[ред. | ред. код]
  • https://web.archive.org/web/20130517085559/http://digitalassets.lib.berkeley.edu/math/ucb/text/math_s4_v1_article-27.pdf (PDF). Proceedings of the 4th Berkeley Symposium on Mathematics, Statistics and Probability 1960. 1961. с. 547—561. Архів оригіналу (PDF) за 17 травня 2013. Процитовано 14 травня 2021. ((cite conference)): Пропущений або порожній |title= (довідка)
  • A. O. Hero, O.Michael and J. Gorman. Alpha-divergences for Classification, Indexing and Retrieval. — 2002. — 24 September. Архівовано з джерела 11 лютого 2012. Процитовано 14 травня 2021.
  • F. Nielsen and S. Boltz. The Burbea-Rao and Bhattacharyya centroids. — 2010. — 24 September. Архівовано з джерела 21 лютого 2022. Процитовано 14 травня 2021.
  • OA Rosso EEG analysis using wavelet-based information tools. Journal of Neuroscience Methods 153 (2006) 163—182
  • Rényi entropy as a measure of entanglement in quantum spin chain: F. Franchini, AR Its, VE Korepin, Journal of Physics A: Math. Theor. 41 (2008) 025302 [1]
{{bottomLinkPreText}} {{bottomLinkText}}
Ентропія Реньї
Listen to this article

This browser is not supported by Wikiwand :(
Wikiwand requires a browser with modern capabilities in order to provide you with the best reading experience.
Please download and use one of the following browsers:

This article was just edited, click to reload
This article has been deleted on Wikipedia (Why?)

Back to homepage

Please click Add in the dialog above
Please click Allow in the top-left corner,
then click Install Now in the dialog
Please click Open in the download dialog,
then click Install
Please click the "Downloads" icon in the Safari toolbar, open the first download in the list,
then click Install
{{::$root.activation.text}}

Install Wikiwand

Install on Chrome Install on Firefox
Don't forget to rate us

Tell your friends about Wikiwand!

Gmail Facebook Twitter Link

Enjoying Wikiwand?

Tell your friends and spread the love:
Share on Gmail Share on Facebook Share on Twitter Share on Buffer

Our magic isn't perfect

You can help our automatic cover photo selection by reporting an unsuitable photo.

This photo is visually disturbing This photo is not a good choice

Thank you for helping!


Your input will affect cover photo selection, along with input from other users.

X

Get ready for Wikiwand 2.0 🎉! the new version arrives on September 1st! Don't want to wait?