Sitzung: Jeden Freitag in der Vorlesungszeit ab 16 Uhr c. t. im MAR 0.005. In der vorlesungsfreien Zeit unregelmäßig (Jemensch da?). Macht mit!

Grundlagen der Künstlichen Intelligenz: Unterschied zwischen den Versionen

K (Rechtschreibfehler)
(haaaaarrg... nochwas hinzugefügt)
Zeile 40: Zeile 40:
  
 
Die Veranstaltung beginnt simpel, zieht dann aber zum Ende des Semesters hin an. Vor allem mathematisch wird der 2. VL-Teil deutlich anspruchsvoller - Kenntnisse in Stochastik, Statistik, Analysis und Differentialrechnung einer sowie mehrerer Variablen sollten vorhanden sein (oder sollte man sich selbstständig aneignen) um der Vorlesung folgen zu können.
 
Die Veranstaltung beginnt simpel, zieht dann aber zum Ende des Semesters hin an. Vor allem mathematisch wird der 2. VL-Teil deutlich anspruchsvoller - Kenntnisse in Stochastik, Statistik, Analysis und Differentialrechnung einer sowie mehrerer Variablen sollten vorhanden sein (oder sollte man sich selbstständig aneignen) um der Vorlesung folgen zu können.
 +
 +
Im WS05/06 wurde diese Lehrveranstaltung das erste Mal in der hier beschriebenen Form durchgeführt, es hat sich personell sowie inhaltliches einiges verändert im Vergleich mit der Vorgängerveranstaltung.
  
 
== Weblinks ==
 
== Weblinks ==

Version vom 11. März 2006, 02:58 Uhr

Klausuren

Grundlagen der kuenstlichen Intelligenz ist eine Basisveranstaltung im Fachgebiet Methoden der KI (Studiengebiet KI).

Inhalt

  • Einführung: "Was ist künstliche Intelligenz?", Ggschichtlicher Überblick, intelligente Softwareagenten
  • Problemlösen und Suche: Problemformulierung, Lösungssuche, informierte Suche, Constraint Satisfaction Problems (CSPs)
  • Planen: STRIPS, Planungsalgorithmen
  • Logikbasierte Agenten: Agenten basierend auf Aussagenlogik und Prädikatenlogik
  • Belief Revision: Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based TMS (JTMS)
  • Modallogik: Belief, Desire, Intention, BDI Agenten
  • Bayes Netze: probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees
  • Hidden Markov Modelle
  • konnektionistisches Neuron
  • Multi-Lagen-Perzeptron: Architektur,Lernen,Prädiktion
  • Probabilistische Verfahren: Generative Modelle, Bayessche Verfahren, MAP-Methode, Kostenfunktionen
  • Einführung in die statistische Lerntheorie: Empirical Risk Minimization (ERM), Structural Risk Minimization (SRM), VC-Dimension
  • Support Vector Maschinen: SVMs für linear (+nicht-linear) separable sowie nicht separable Probleme

(im Wesentlichen aus den Folien des WS 05/06 entnommen)

Tipps und nützliche Infos

Die Lehrveranstaltung wird in zwei Teilen im Wintersemester durchgeführt:

  • bis 8.12 von Prof. Albayrak (AOT bzw. DAI-Labor)
  • ab 14.12 Prof. Obermayer (NI)

Es gibt eine recht große Auswahl an Literatur. Für den ersten Teil der Veranstaltung ist empfehlenswert:

Für den zweiten Teil der Veranstaltung kann man anfangs auch noch darauf zurückgreifen, jedoch erweisen sich folgende Bücher später als zunehmend nützlich:

Es gibt kein Skript zur Vorlesung, dafür aber (inhaltlich VIEL zu dünne) Folien. Es empfiehlt also dringend bereits am Anfag des Semesters den Stuart/Russell zu erwerben (ausleihen ist schwierig, die UniUni-Bibliothek hat nur sehr wenige Exemplare). Die beiden obigen Bücher über Neuronale Netze kann man in der Uni-Bibliothek ausleihen, es gibt sogar durchaus ein paar Exemplare, aber leider nicht genug für alle - also ist Eile oder Kopieren angesagt. Zum Kaufen ist leider besonders der Haykin zu teuer (siehe Link).

Die Veranstaltung beginnt simpel, zieht dann aber zum Ende des Semesters hin an. Vor allem mathematisch wird der 2. VL-Teil deutlich anspruchsvoller - Kenntnisse in Stochastik, Statistik, Analysis und Differentialrechnung einer sowie mehrerer Variablen sollten vorhanden sein (oder sollte man sich selbstständig aneignen) um der Vorlesung folgen zu können.

Im WS05/06 wurde diese Lehrveranstaltung das erste Mal in der hier beschriebenen Form durchgeführt, es hat sich personell sowie inhaltliches einiges verändert im Vergleich mit der Vorgängerveranstaltung.

Weblinks

Persönliche Kommentare

(Nicht unterschriebene Kommentare werden gelöscht!)

War ganz ok. FelixB