Grundlagen der Künstlichen Intelligenz: Unterschied zwischen den Versionen
(→Weblinks aktualisiert) |
K (→Rechtschreibfehler) |
||
Zeile 11: | Zeile 11: | ||
* '''Planen:''' STRIPS, Planungsalgorithmen | * '''Planen:''' STRIPS, Planungsalgorithmen | ||
* '''Logikbasierte Agenten:''' Agenten basierend auf Aussagenlogik und Prädikatenlogik | * '''Logikbasierte Agenten:''' Agenten basierend auf Aussagenlogik und Prädikatenlogik | ||
− | * '''Belief Revision:''' Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based | + | * '''Belief Revision:''' Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based TMS (JTMS) |
* '''Modallogik:''' Belief, Desire, Intention, BDI Agenten | * '''Modallogik:''' Belief, Desire, Intention, BDI Agenten | ||
* '''Bayes Netze:''' probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees | * '''Bayes Netze:''' probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees |
Version vom 11. März 2006, 02:54 Uhr
Klausuren
Grundlagen der kuenstlichen Intelligenz ist eine Basisveranstaltung im Fachgebiet Methoden der KI (Studiengebiet KI).
Inhalt
- Einführung: "Was ist künstliche Intelligenz?", Ggschichtlicher Überblick, intelligente Softwareagenten
- Problemlösen und Suche: Problemformulierung, Lösungssuche, informierte Suche, Constraint Satisfaction Problems (CSPs)
- Planen: STRIPS, Planungsalgorithmen
- Logikbasierte Agenten: Agenten basierend auf Aussagenlogik und Prädikatenlogik
- Belief Revision: Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based TMS (JTMS)
- Modallogik: Belief, Desire, Intention, BDI Agenten
- Bayes Netze: probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees
- Hidden Markov Modelle
- konnektionistisches Neuron
- Multi-Lagen-Perzeptron: Architektur,Lernen,Prädiktion
- Probabilistische Verfahren: Generative Modelle, Bayessche Verfahren, MAP-Methode, Kostenfunktionen
- Einführung in die statistische Lerntheorie: Empirical Risk Minimization (ERM), Structural Risk Minimization (SRM), VC-Dimension
- Support Vector Maschinen: SVMs für linear (+nicht-linear) separable sowie nicht separable Probleme
(im Wesentlichen aus den Folien des WS 05/06 entnommen)
Tipps und nützliche Infos
Die Lehrveranstaltung wird in zwei Teilen im Wintersemester durchgeführt:
- bis 8.12 von Prof. Albayrak (AOT bzw. DAI-Labor)
- ab 14.12 Prof. Obermayer (NI)
Es gibt eine recht große Auswahl an Literatur. Für den ersten Teil der Veranstaltung ist empfehlenswert:
- "Künstliche Intelligenz - Ein moderner Ansatz" von Stuart Russell/Peter Norvig (Prentice Hall 2003)
Für den zweiten Teil der Veranstaltung kann man anfangs auch noch darauf zurückgreifen, jedoch erweisen sich folgende Bücher später als zunehmend nützlich:
- "Neural Networks - A Comprehensive Foundation" von S. Haykin (Prentice Hall, 1999)
- "Neural Networks for Pattern Recognition" von C. Bishop (Clarendon Press, 1995)
Es gibt kein Skript zur Vorlesung, dafür aber (inhaltlich VIEL zu dünne) Folien. Es empfiehlt also dringend bereits am Anfag des Semesters den Stuart/Russell zu erwerben (ausleihen ist schwierig, die UniUni-Bibliothek hat nur sehr wenige Exemplare). Die beiden obigen Bücher über Neuronale Netze kann man in der Uni-Bibliothek ausleihen, es gibt sogar durchaus ein paar Exemplare, aber leider nicht genug für alle - also ist Eile oder Kopieren angesagt. Zum Kaufen ist leider besonders der Haykin zu teuer (siehe Link).
Die Veranstaltung beginnt simpel, zieht dann aber zum Ende des Semesters hin an. Vor allem mathematisch wird der 2. VL-Teil deutlich anspruchsvoller - Kenntnisse in Stochastik, Statistik, Analysis und Differentialrechnung einer sowie mehrerer Variablen sollten vorhanden sein (oder sollte man sich selbstständig aneignen) um der Vorlesung folgen zu können.
Weblinks
Persönliche Kommentare
- (Nicht unterschriebene Kommentare werden gelöscht!)
War ganz ok. FelixB