Grundlagen der Künstlichen Intelligenz
Musterklausuren
Bitte beachte die Hinweise zu Altklausuren.
Grundlagen der künstlichen Intelligenz ist eine Basisveranstaltung im Fachgebiet Methoden der KI (Studiengebiet KI) im Hauptstudium für Informatik-Studierende.
Inhalt
- Einführung: "Was ist künstliche Intelligenz?", Geschichtlicher Überblick, intelligente Softwareagenten
- Problemlösen und Suche: Problemformulierung, Lösungssuche, informierte Suche, Constraint Satisfaction Problems (CSPs)
- Planen: STRIPS, Planungsalgorithmen
- Logikbasierte Agenten: Agenten basierend auf Aussagenlogik und Prädikatenlogik
- Belief Revision: Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based TMS (JTMS)
- Modallogik: Belief, Desire, Intention, BDI Agenten
- Bayes Netze: probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees
- Hidden Markov Modelle
- konnektionistisches Neuron
- Multi-Lagen-Perzeptron: Architektur,Lernen,Prädiktion
- Probabilistische Verfahren: Generative Modelle, Bayessche Verfahren, MAP-Methode, Kostenfunktionen
- Einführung in die statistische Lerntheorie: Empirical Risk Minimization (ERM), Structural Risk Minimization (SRM), VC-Dimension
- Support Vector Maschinen: SVMs für linear (+nicht-linear) separable sowie nicht separable Probleme
(im Wesentlichen aus den Folien des WS 05/06 entnommen)
Tipps und nützliche Infos
Die Lehrveranstaltung wird in zwei Teilen im Wintersemester durchgeführt:
- bis 8.12 von Prof. Albayrak (AOT bzw. DAI-Labor)
- ab 14.12 Prof. Obermayer (NI)
Es gibt eine recht große Auswahl an Literatur. Für den ersten Teil der Veranstaltung ist empfehlenswert:
- "Künstliche Intelligenz - Ein moderner Ansatz" von Stuart Russell/Peter Norvig (Prentice Hall 2003)
Für den zweiten Teil der Veranstaltung kann man anfangs auch noch darauf zurückgreifen, jedoch erweisen sich folgende Bücher später als zunehmend nützlich:
- "Neural Networks - A Comprehensive Foundation" von S. Haykin (Prentice Hall, 1999)
- "Neural Networks for Pattern Recognition" von C. Bishop (Clarendon Press, 1995)
Es gibt kein Skript zur Vorlesung, dafür aber (inhaltlich VIEL zu dünne) Folien. Es empfiehlt also dringend bereits am Anfag des Semesters den Stuart/Russell zu erwerben (ausleihen ist schwierig, die UniUni-Bibliothek hat nur sehr wenige Exemplare). Die beiden obigen Bücher über Neuronale Netze kann man in der Uni-Bibliothek ausleihen, es gibt sogar durchaus ein paar Exemplare, aber leider nicht genug für alle - also ist Eile oder Kopieren angesagt. Zum Kaufen ist leider besonders der Haykin zu teuer (siehe Link).
Die Veranstaltung beginnt simpel, zieht dann aber zum Ende des Semesters hin an. Vor allem mathematisch wird der 2. VL-Teil deutlich anspruchsvoller - Kenntnisse in Stochastik, Statistik, Analysis und Differentialrechnung einer sowie mehrerer Variablen sollten vorhanden sein (oder sollte man sich selbstständig aneignen) um der Vorlesung folgen zu können.
Im WS05/06 wurde diese Lehrveranstaltung das erste Mal in der hier beschriebenen Form durchgeführt, es hat sich personell sowie inhaltliches einiges verändert im Vergleich mit der Vorgängerveranstaltung.
Weblinks
Persönliche Kommentare
- (Nicht unterschriebene Kommentare werden gelöscht!)
- War ganz ok. FelixB
- Habe die neu gestaltete Veranstaltung im WS05/06 belegt. (obiger Kommentar von FelixB bezieht sich auf die alte Veranstaltung, die so nicht mehr existiert). Was dieser Veranstaltung fehlt ist ein Skript oder ein durchgängies Lehrbuch. Es ist m. M. nach ziemlich unverschämt, dass man entweder (a) viel Geld ausgeben muss (Russell/Norvig ~ 60EUR) oder (b) nichts versteht. Der Russell/Norvig ist quasi nicht erhältlich in der Uni-Bib. Bei den anderen Büchern siehts etwas besser aus, aber die sind ja nur für die 2. Semesterhälfte. Die Folien sind zu großen Teilen echt grauenhaft (selbsterklärend ist hier ein Fremdwort). Sehr toll auch, dass zu so Themen wie JTMS/ATMS selbst im Russell/Norvig (fast) nichts steht und die Folien zwar ein paar nette Beispiele machen, aber das Thema nicht wirklich hinreichend klären (in den Hausaufgaben muss man die Detailfragen dann aber geklärt haben - Tja wie denn? Entweder raten oder den WM mit fragen löchern - das kanns doch nicht sein, oder?). Die Veranstaltung hat nen hohen Zeitaufwand, hohen Frustfaktor (mein Empfinden) und ist vom Lehrpersonal her zahlenmäßig echt unterbesetzt. 3/10 auf meiner Skala.Die Evaluation soll ja ähnlich ausgefallen sein - kein Wunder... --BjörnL 04:19, 11. Mär 2006 (CET)
- Hinweis: Die Evaluationsergebnisse sind aus dem CS-Netz einsehbar: http://iv.tu-berlin.de/teaching/LVAuswertung/ --BjörnBrandenburg 10:27, 11. Mär 2006 (CET)
- Ich schließe mich der Meinung von BjörnL an. Man hat wirklich sehr viel Zeit in GKI investieren müssen, um im Endeffekt eine Klausur in 90 Minuten schaffen zu müssen, die locker für 120 Minuten reichen würde. Im Semester war der Zeitaufwand im Vergleich zu den anderen Basisveranstaltungen, die ich besucht habe, sehr hoch. Insgesamt waren 10 Aufgabenblätter da, von denen man in mindestens 5 viel programmieren musste (und zwar Java oder C/C++, kein Prolog wie aus den Früheren Jahren bekannt). Im zweiten Teil kam auch noch sehr viel Mathe dazu, und wer sich noch nicht mit neuronalen Netzen schon auseinandergesetzt hat, wird es nochmal gründlich machen müssen. Die 3 letzten Blätter mussten schon in den Semesterferien gemacht werden, also nach der eigentlichen Klausur. Außerdem muss ich auch noch sagen, dass Herr Prof. Obermayer ein exzellenter Wissenschaftler sein mag, aber aus der pädagogischen Sicht ist er leider sogar unter dem Niveau, das man von Herrn Prof. Post aus dem TechGI-Kurs kennt. --Soundmonster 17:58, 2. Mai 2006 (CEST)