Seminar Entropiemethoden

Termin

Donnerstag 14.15-15.45 Uhr Arnimallee 6, Raum 009

Achtung: Am 23.05.2013 muss das Seminar ausfallen! Alle Vorträge verschieben sich um eine Woche nach hinten. Die Termine wurden in der Vortragsliste (s.u.) bereits geändert.

Kontakt

Carsten Hartmann chartman@mi.fu-berlin.de Raum 113, Arnimallee 6
Stefanie Winkelmann klink@mi.fu-berlin.de Raum 116, Arnimallee 6
Ralf Banisch ralfbanisch@zedat.fu-berlin.de Raum 115, Arnimallee 6

Allgemeine Informationen

Inhalt

In dem Seminar werden verschiedene Themen rund um den zentralen Begriff der Entropie behandelt. Dazu gehören:

Zielgruppe

Bachelor oder Master-Studierende mit Interesse an Stochastik, Analysis und Numerik

Voraussetzungen

Stochastik I, Numerik I, Analysis I-III

Scheinkriterien

Tafelvortrag oder Beamerpräsentation von ca. 45-60 min

Vorträge

Termin Vortragende Thema Literatur Betreuer
25.04.2013 J. Schöpke Einführung: Was ist Entropie? [4, Kap. 2] C.H.
02.05.2013 Ch. Tumescheit Mutual Information: Data Processing Inequality & Sufficient Statistics [1, Kap. 8], [4, Kap. 2.8-2.9] S.W.
16.05.2013 J. L. Hinrichsen, S. Siegmund Conditional Entropy: Fanos Ungleichung [4, Kap. 2.10], [7] S.W.
30.05.2013 L. Buntrock, D. Otto Informationstheorie I: AEP & Datenkompression [4, Kap. 3 und 5.1-5.8] C.H.
06.06.2013 A. Fritz, O. Zwingel, T. Jungton Informationstheorie II: Shannon Theorem [4, Kap. 7] R.B.
13.06.2013 P. Murtzen, J. Podlesny Max-Entropy principles [1, Kap. 9], [3, Kap. 1], [8] R.B.
20.06.2013 S. Bierke, A. Dittus Zentraler Grenzwertsatz als Entropiemaximierung [9], [10] S.W.
27.06.2013 T. Mirschel, C. Spiegel Seltene Ereignisse: Die Cross-Entropy-Methode [6] R.B.
04.07.2013 C. Lange, Y. Zhang Evolutionsgleichungen [2, Kap. 3], [11] C.H.

Literatur

In der Bibliothek gibt es einen Handapparat, der einige der angegebenen Bücher enthält ("HA Hartmann"). Zeitschriftenaufsätze findet man meist online.

Generell ist die Literatur zu den einzelnen Vorträgen als Vorschlag gedacht, teilweise sind die Angaben redundant (d.h., man suche sich das passende aus).

[1] E.T. Jaynes, Probability Theory: The Logic of Science, Cambridge University Press, 2003.

[2] L. Ambrosio, L.A. Caffarelli, Y. Brenier, G. Buttazzo, C. Villani, Sandro Salsa Optimal Transportation and Applications, Lectures given at the C.I.M.E. Summer School, held in Martina Franca, Italy, September 2-8, 2001, Springer Lecture Notes in Mathematics, Volume 1813, 2003.

[3] J.N. Kapur, Maximum-entropy models in science and engineering, Wiley, 1989.

[4] T.M. Cover, J.A. Thomas, Elements of Information Theory, Wiley, 2006.

[5] H.-O. Georgii. Probabilistic aspects of entropy, Opening lecture given at the "International Symposium on Entropy" hosted by the MPI for Physics of Complex Systems, Dresden, Germany, 26-28 June, 2000.

[6] D.P. Kroese et al., A Tutorial on the Cross-Entropy Method, Annals of Operations Research 134, 19-67, 2005.

[7] M. Feder and N. Merhav, Relations between entropy and error probability, IEEE Trans. Inform. Theory, vol. 40, no. 1, pp. 259–266, 1994.

[8] E.T. Jaynes, On the Rationale of Maximum-Entropy Methods, Proc. IEEE., vol 70, no. 9, pp. 939-953, 1982.

[9] A.R. Barron, Entropy and the Central Limit Theorem, Ann. Probab., vol. 14, no. 1, pp. 336-342, 1986

[10] S. Artstein, K.M. Ball, F. Barthe and A. Naor, Solution of Shannon's problem on the monotonicity of entropy, J. Amer. Math. Soc. vol. 17, no. 4, pp. 975-982, 2004.

[11] A. Jüngel and D. Matthes, Entropiemethoden für nichtlineare partielle Differentialgleichungen, Internationale Mathematische Nachrichten, vol. 209, pp. 1-14, 2008.