dbo:abstract
|
- Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert.Die Fisher-Information spielt in der asymptotischen Theorie der Maximum-Likelihood-Schätzung eine wichtige Rolle und wird auch in der Bayes-Statistik bei der Berechnung von Priorverteilungen verwendet. Sie kann auch bei der Formulierung von Teststatistiken, wie beim Wald-Test verwendet werden. (de)
- In mathematical statistics, the Fisher information (sometimes simply called information) is a way of measuring the amount of information that an observable random variable X carries about an unknown parameter θ of a distribution that models X. Formally, it is the variance of the score, or the expected value of the observed information. In Bayesian statistics, the asymptotic distribution of the posterior mode depends on the Fisher information and not on the prior (according to the Bernstein–von Mises theorem, which was anticipated by Laplace for exponential families). The role of the Fisher information in the asymptotic theory of maximum-likelihood estimation was emphasized by the statistician Ronald Fisher (following some initial results by Francis Ysidro Edgeworth). The Fisher information is also used in the calculation of the Jeffreys prior, which is used in Bayesian statistics. The Fisher information matrix is used to calculate the covariance matrices associated with maximum-likelihood estimates. It can also be used in the formulation of test statistics, such as the Wald test. Statistical systems of a scientific nature (physical, biological, etc.) whose likelihood functions obey shift invariance have been shown to obey maximum Fisher information. The level of the maximum depends upon the nature of the system constraints. (en)
- L'information de Fisher est une notion de statistique introduite par R.A. Fisher qui quantifie l'information relative à un paramètre contenue dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. (fr)
- フィッシャー情報量(フィッシャーじょうほうりょう、英: Fisher information) は、統計学や情報理論で登場する量で、確率変数が母数に関して持つ「情報」の量を表す。統計学者のロナルド・フィッシャーに因んで名付けられた。 (ja)
- 통계학에서 피셔 정보(영어: Fisher information)는 어떤 확률변수의 관측값으로부터, 확률변수의 분포의 매개변수에 대해 유추할 수 있는 정보의 양이다. (ko)
- In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza. L'informazione di Fisher, che prende il nome dal celebre genetista e statistico Ronald Fisher, può essere interpretata come l'ammontare di informazione contenuta da una variabile casuale osservabile , concernente un parametro non osservabile , da cui dipende la distribuzione di probabilità di . Denotando l'informazione di Fisher con , poiché il valore atteso dello score è nullo, la sua varianza è pari al suo momento del secondo ordine, così che: dove denota la funzione di verosimiglianza. Una scrittura equivalente è: ossia meno il valore atteso della derivata seconda della funzione di verosimiglianza rispetto a ; l'informazione di Fisher può dunque essere letta come una misura della curvatura della verosimiglianza in corrispondenza della stima di massima verosimiglianza per . Una verosimiglianza piatta, con una derivata seconda modesta, comporterà minore informazione, laddove una maggior curva apporterà una maggiore quantità di informazione. (it)
- In de wiskundige statistiek is de fisherinformatie van een familie kansdichtheden een grootheid die informatie geeft over de kwaliteit van parameterschattingen. De grootheid is genoemd naar de Britse statisticus Ronald Aylmer Fisher. (nl)
- Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach jaką niesie obserwowalna związana z nimi zmienna losowa . Może być rozumiana jako średnia dokładność oszacowania, jaką daje obserwacja danych – tj. wartość oczekiwana brzegowej wiarygodności estymatora parametru względem obserwacji danych W przypadku jednego parametru i zmiennej ciągłej, oraz przy założeniu określonego statystycznego modelu ich wzajemnej zależności wyraża ją równanie: Jest to więc druga pochodna, czyli pochodna gradientu funkcji prawdopodobieństwa, pozwalająca wyrazić szybkość jego zmian przy jej maksimum. Innymi słowy, informacja Fishera opisuje jak bardzo rozkład wiarygodności estymatora parametru względem obserwacji zmiennej losowej jest skupiony blisko maksimum, czyli jaką wariancją się cechuje. Dla porównania, entropia Shannona wyraża globalny średni przyrost informacji, jaką daje obserwacja danych, w estymatorze histogramowym przyjmując postać: Ronald Fisher opisał informację Fishera także jako wewnętrzną dokładność krzywej błędu (intrinsic accuracy of an error curve). W przypadku wielu parametrów jej wynik ma postać macierzy Hessego. Ma postaci zarówno dla zmiennych ciągłych, jak i dyskretnych. Miara ta występuje w wielu obszarach matematyki, statystyki i teorii informacji, w szczególności stanowi główną część nierówności Craméra-Rao. Zasada nieoznaczoności Heisenberga może być traktowana jako szczególny przypadek minimum Craméra-Rao, a oba wzory opierają się o nierówność Cauchy’ego-Schwarza. Entropię Shannona i informację Fishera, oraz inne miary informacji łączy tożsamość de Bruijna i dywergencja Kullbacka-Leiblera. (pl)
- Информа́ция Фи́шера — математическое ожидание квадрата относительной скорости изменения условной плотности вероятности . Эта функция названа в честь описавшего её Рональда Фишера. (ru)
- У математичній статистиці та теорії інформації інформацією за Фішером називається міра кількості інформації, що спостережувана випадкова змінна X несе про невідомий параметр θ, від якого залежить ймовірність X. Формально це дисперсія функції внеску вибірки. Ця функція названа на честь Рональда Фішера, що описав її. (uk)
- 数理统计学中,费希尔信息(英语:Fisher Information;有時稱作 information),或稱費雪訊息數,通常记作,是衡量观测所得的随机变量携带的关于未知母數的訊息量,其中的概率分布依赖于母數。费希尔信息由统计学家罗纳德·费希尔在弗朗西斯·伊西德罗·埃奇沃思工作的基础上提出,现常用于最大似然估计和中。 (zh)
|
rdfs:comment
|
- Die Fisher-Information (benannt nach dem Statistiker Ronald Fisher) ist eine Kenngröße aus der mathematischen Statistik, die für eine Familie von Wahrscheinlichkeitsdichten definiert werden kann und Aussagen über die bestmögliche Qualität von Parameterschätzungen in diesem Modell liefert.Die Fisher-Information spielt in der asymptotischen Theorie der Maximum-Likelihood-Schätzung eine wichtige Rolle und wird auch in der Bayes-Statistik bei der Berechnung von Priorverteilungen verwendet. Sie kann auch bei der Formulierung von Teststatistiken, wie beim Wald-Test verwendet werden. (de)
- L'information de Fisher est une notion de statistique introduite par R.A. Fisher qui quantifie l'information relative à un paramètre contenue dans une distribution. Elle est définie comme l'espérance de l'information observée, ou encore comme la variance de la fonction de score. Dans le cas multi-paramétrique, on parle de matrice d'information de Fisher. (fr)
- フィッシャー情報量(フィッシャーじょうほうりょう、英: Fisher information) は、統計学や情報理論で登場する量で、確率変数が母数に関して持つ「情報」の量を表す。統計学者のロナルド・フィッシャーに因んで名付けられた。 (ja)
- 통계학에서 피셔 정보(영어: Fisher information)는 어떤 확률변수의 관측값으로부터, 확률변수의 분포의 매개변수에 대해 유추할 수 있는 정보의 양이다. (ko)
- In de wiskundige statistiek is de fisherinformatie van een familie kansdichtheden een grootheid die informatie geeft over de kwaliteit van parameterschattingen. De grootheid is genoemd naar de Britse statisticus Ronald Aylmer Fisher. (nl)
- Информа́ция Фи́шера — математическое ожидание квадрата относительной скорости изменения условной плотности вероятности . Эта функция названа в честь описавшего её Рональда Фишера. (ru)
- У математичній статистиці та теорії інформації інформацією за Фішером називається міра кількості інформації, що спостережувана випадкова змінна X несе про невідомий параметр θ, від якого залежить ймовірність X. Формально це дисперсія функції внеску вибірки. Ця функція названа на честь Рональда Фішера, що описав її. (uk)
- 数理统计学中,费希尔信息(英语:Fisher Information;有時稱作 information),或稱費雪訊息數,通常记作,是衡量观测所得的随机变量携带的关于未知母數的訊息量,其中的概率分布依赖于母數。费希尔信息由统计学家罗纳德·费希尔在弗朗西斯·伊西德罗·埃奇沃思工作的基础上提出,现常用于最大似然估计和中。 (zh)
- In mathematical statistics, the Fisher information (sometimes simply called information) is a way of measuring the amount of information that an observable random variable X carries about an unknown parameter θ of a distribution that models X. Formally, it is the variance of the score, or the expected value of the observed information. The Fisher information matrix is used to calculate the covariance matrices associated with maximum-likelihood estimates. It can also be used in the formulation of test statistics, such as the Wald test. (en)
- In statistica e teoria dell'informazione, l'informazione di Fisher è la varianza dello score (derivata logaritmica) associato a una data funzione di verosimiglianza. L'informazione di Fisher, che prende il nome dal celebre genetista e statistico Ronald Fisher, può essere interpretata come l'ammontare di informazione contenuta da una variabile casuale osservabile , concernente un parametro non osservabile , da cui dipende la distribuzione di probabilità di . dove denota la funzione di verosimiglianza. Una scrittura equivalente è: (it)
- Informacja Fishera – miara ilości informacji o jednym lub wielu nieznanych parametrach jaką niesie obserwowalna związana z nimi zmienna losowa . Może być rozumiana jako średnia dokładność oszacowania, jaką daje obserwacja danych – tj. wartość oczekiwana brzegowej wiarygodności estymatora parametru względem obserwacji danych W przypadku jednego parametru i zmiennej ciągłej, oraz przy założeniu określonego statystycznego modelu ich wzajemnej zależności wyraża ją równanie: (pl)
|