Sitzung: Jeden Freitag in der Vorlesungszeit ab 16 Uhr c. t. im MAR 0.005. In der vorlesungsfreien Zeit unregelmäßig (Jemensch da?). Macht mit!

Grundlagen der Künstlichen Intelligenz: Unterschied zwischen den Versionen

(auf den aktuellen Stand angepasst)
(Literatur, Tipps und Infos zur Veranstaltung)
Zeile 25: Zeile 25:
 
== Tipps und nützliche Infos ==
 
== Tipps und nützliche Infos ==
  
Da Prof. Wysotzki die Vorlesung nicht mehr halten wird (er verlaesst die Uni), ist es relativ sinnlos, gute Tipps zu geben ;)
+
Die Lehrveranstaltung wird in zwei Teilen im Wintersemester durchgeführt:
 +
* bis 8.12 von Prof. Albayrak (AOT bzw. DAI-Labor)
 +
* ab 14.12 Prof. Obermayer (NI)
  
Literatur:
+
Es gibt eine recht große Auswahl an Literatur. Für den ersten Teil der Veranstaltung ist empfehlenswert:
nichts gelesen
+
* [http://www.amazon.de/exec/obidos/ASIN/3827370892/qid=1142043496/sr=8-1/ref=sr_8_xs_ap_i1_xgl/028-2960028-0390962 "Künstliche Intelligenz - Ein moderner Ansatz"] von Stuart Russell/Peter Norvig (Prentice Hall 2003)
 +
 
 +
Für den zweiten Teil der Veranstaltung kann man anfangs auch noch darauf zurückgreifen, jedoch erweisen sich folgende Bücher später als zunehmend nützlich:
 +
* [http://www.amazon.de/exec/obidos/ASIN/0139083855/qid=1142044066/sr=8-2/ref=sr_8_xs_ap_i2_xgl/028-2960028-0390962 "Neural Networks - A Comprehensive Foundation"] von S. Haykin (Prentice Hall, 1999)
 +
* [http://www.amazon.de/exec/obidos/ASIN/0198538642/qid=1142044280/sr=1-1/ref=sr_1_2_1/028-2960028-0390962 "Neural Networks for Pattern Recognition"] von C. Bishop (Clarendon Press, 1995)
 +
 
 +
Es gibt kein Skript zur Vorlesung, dafür aber (inhaltlich VIEL zu dünne) Folien. Es empfiehlt also dringend bereits am Anfag des Semesters den Stuart/Russell zu erwerben (ausleihen ist schwierig, die UniUni-Bibliothek hat nur sehr wenige Exemplare).
 +
Die beiden obigen Bücher über Neuronale Netze kann man in der Uni-Bibliothek ausleihen, es gibt sogar durchaus ein paar Exemplare, aber leider nicht genug für alle - also ist Eile oder Kopieren angesagt. Zum Kaufen ist leider besonders der Haykin zu teuer (siehe Link).
 +
 
 +
Die Veranstaltung beginnt simpel, zieht dann aber zum Ende des Semesters hin an. Vor allem mathematisch wird der 2. VL-Teil deutlich anspruchsvoller - Kenntnisse in Stochastik, Statistik, Analysis und Differentialrechnung einer sowie mehrerer Variablen sollten vorhanden sein (oder sollte man sich selbstständig aneignen) um der Vorlesung folgen zu können.
  
 
== Weblinks ==
 
== Weblinks ==

Version vom 11. März 2006, 02:52 Uhr

Klausuren

Grundlagen der kuenstlichen Intelligenz ist eine Basisveranstaltung im Fachgebiet Methoden der KI (Studiengebiet KI).

Inhalt

  • Einführung: "Was ist künstliche Intelligenz?", Ggschichtlicher Überblick, intelligente Softwareagenten
  • Problemlösen und Suche: Problemformulierung, Lösungssuche, informierte Suche, Constraint Satisfaction Problems (CSPs)
  • Planen: STRIPS, Planungsalgorithmen
  • Logikbasierte Agenten: Agenten basierend auf Aussagenlogik und Prädikatenlogik
  • Belief Revision: Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based TMSS (JTMS)
  • Modallogik: Belief, Desire, Intention, BDI Agenten
  • Bayes Netze: probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees
  • Hidden Markov Modelle
  • konnektionistisches Neuron
  • Multi-Lagen-Perzeptron: Architektur,Lernen,Prädiktion
  • Probabilistische Verfahren: Generative Modelle, Bayessche Verfahren, MAP-Methode, Kostenfunktionen
  • Einführung in die statistische Lerntheorie: Empirical Risk Minimization (ERM), Structural Risk Minimization (SRM), VC-Dimension
  • Support Vector Maschinen: SVMs für linear (+nicht-linear) separable sowie nicht separable Probleme

(im Wesentlichen aus den Folien des WS 05/06 entnommen)

Tipps und nützliche Infos

Die Lehrveranstaltung wird in zwei Teilen im Wintersemester durchgeführt:

  • bis 8.12 von Prof. Albayrak (AOT bzw. DAI-Labor)
  • ab 14.12 Prof. Obermayer (NI)

Es gibt eine recht große Auswahl an Literatur. Für den ersten Teil der Veranstaltung ist empfehlenswert:

Für den zweiten Teil der Veranstaltung kann man anfangs auch noch darauf zurückgreifen, jedoch erweisen sich folgende Bücher später als zunehmend nützlich:

Es gibt kein Skript zur Vorlesung, dafür aber (inhaltlich VIEL zu dünne) Folien. Es empfiehlt also dringend bereits am Anfag des Semesters den Stuart/Russell zu erwerben (ausleihen ist schwierig, die UniUni-Bibliothek hat nur sehr wenige Exemplare). Die beiden obigen Bücher über Neuronale Netze kann man in der Uni-Bibliothek ausleihen, es gibt sogar durchaus ein paar Exemplare, aber leider nicht genug für alle - also ist Eile oder Kopieren angesagt. Zum Kaufen ist leider besonders der Haykin zu teuer (siehe Link).

Die Veranstaltung beginnt simpel, zieht dann aber zum Ende des Semesters hin an. Vor allem mathematisch wird der 2. VL-Teil deutlich anspruchsvoller - Kenntnisse in Stochastik, Statistik, Analysis und Differentialrechnung einer sowie mehrerer Variablen sollten vorhanden sein (oder sollte man sich selbstständig aneignen) um der Vorlesung folgen zu können.

Weblinks


Persönliche Kommentare

(Nicht unterschriebene Kommentare werden gelöscht!)

War ganz ok. FelixB