Grundlagen der Künstlichen Intelligenz: Unterschied zwischen den Versionen
(→haaaaarrg... nochwas hinzugefügt) |
(→persönlichen Kommentar eingefügt) |
||
Zeile 49: | Zeile 49: | ||
== Persönliche Kommentare == | == Persönliche Kommentare == | ||
: (Nicht unterschriebene Kommentare werden gelöscht!) | : (Nicht unterschriebene Kommentare werden gelöscht!) | ||
− | War ganz ok. FelixB | + | * War ganz ok. FelixB |
+ | * Habe die neu gestaltete Veranstaltung im WS05/06 belegt. (obiger Kommentar von FelixB bezieht sich auf die '''alte''' Veranstaltung, die so nicht mehr existiert). Was dieser Veranstaltung fehlt ist ein '''Skript''' oder ein durchgängies Lehrbuch. Es ist m. M. nach ziemlich unverschämt, dass man entweder (a) viel Geld ausgeben muss (Russell/Norvig ~ 60EUR) oder (b) nichts versteht. Der Russell/Norvig ist quasi nicht erhältlich in der Uni-Bib. Bei den anderen Büchern siehts etwas besser aus, aber die sind ja nur für die 2. Semesterhälfte. Die Folien sind zu großen Teilen echt grauenhaft (selbsterklärend ist hier ein Fremdwort). Sehr toll auch, dass zu so Themen wie JTMS/ATMS selbst im Russell/Norvig (fast) nichts steht und die Folien zwar ein paar nette Beispiele machen, aber das Thema nicht wirklich hinreichend klären (in den Hausaufgaben muss man die Detailfragen dann aber geklärt haben - Tja wie denn? Entweder '''raten''' oder den WM mit fragen löchern - das kanns doch nicht sein, oder?). Die Veranstaltung hat nen hohen Zeitaufwand, hohen Frustfaktor (mein Empfinden) und ist personell zahlenmäßig echt unterbesetzt. 3/10 auf meiner Skala.--[[Benutzer:BjörnL|BjörnL]] 04:19, 11. Mär 2006 (CET) | ||
[[Kategorie:Lehrveranstaltungen]] | [[Kategorie:Lehrveranstaltungen]] |
Version vom 11. März 2006, 03:19 Uhr
Klausuren
Grundlagen der kuenstlichen Intelligenz ist eine Basisveranstaltung im Fachgebiet Methoden der KI (Studiengebiet KI).
Inhalt
- Einführung: "Was ist künstliche Intelligenz?", Ggschichtlicher Überblick, intelligente Softwareagenten
- Problemlösen und Suche: Problemformulierung, Lösungssuche, informierte Suche, Constraint Satisfaction Problems (CSPs)
- Planen: STRIPS, Planungsalgorithmen
- Logikbasierte Agenten: Agenten basierend auf Aussagenlogik und Prädikatenlogik
- Belief Revision: Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based TMS (JTMS)
- Modallogik: Belief, Desire, Intention, BDI Agenten
- Bayes Netze: probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees
- Hidden Markov Modelle
- konnektionistisches Neuron
- Multi-Lagen-Perzeptron: Architektur,Lernen,Prädiktion
- Probabilistische Verfahren: Generative Modelle, Bayessche Verfahren, MAP-Methode, Kostenfunktionen
- Einführung in die statistische Lerntheorie: Empirical Risk Minimization (ERM), Structural Risk Minimization (SRM), VC-Dimension
- Support Vector Maschinen: SVMs für linear (+nicht-linear) separable sowie nicht separable Probleme
(im Wesentlichen aus den Folien des WS 05/06 entnommen)
Tipps und nützliche Infos
Die Lehrveranstaltung wird in zwei Teilen im Wintersemester durchgeführt:
- bis 8.12 von Prof. Albayrak (AOT bzw. DAI-Labor)
- ab 14.12 Prof. Obermayer (NI)
Es gibt eine recht große Auswahl an Literatur. Für den ersten Teil der Veranstaltung ist empfehlenswert:
- "Künstliche Intelligenz - Ein moderner Ansatz" von Stuart Russell/Peter Norvig (Prentice Hall 2003)
Für den zweiten Teil der Veranstaltung kann man anfangs auch noch darauf zurückgreifen, jedoch erweisen sich folgende Bücher später als zunehmend nützlich:
- "Neural Networks - A Comprehensive Foundation" von S. Haykin (Prentice Hall, 1999)
- "Neural Networks for Pattern Recognition" von C. Bishop (Clarendon Press, 1995)
Es gibt kein Skript zur Vorlesung, dafür aber (inhaltlich VIEL zu dünne) Folien. Es empfiehlt also dringend bereits am Anfag des Semesters den Stuart/Russell zu erwerben (ausleihen ist schwierig, die UniUni-Bibliothek hat nur sehr wenige Exemplare). Die beiden obigen Bücher über Neuronale Netze kann man in der Uni-Bibliothek ausleihen, es gibt sogar durchaus ein paar Exemplare, aber leider nicht genug für alle - also ist Eile oder Kopieren angesagt. Zum Kaufen ist leider besonders der Haykin zu teuer (siehe Link).
Die Veranstaltung beginnt simpel, zieht dann aber zum Ende des Semesters hin an. Vor allem mathematisch wird der 2. VL-Teil deutlich anspruchsvoller - Kenntnisse in Stochastik, Statistik, Analysis und Differentialrechnung einer sowie mehrerer Variablen sollten vorhanden sein (oder sollte man sich selbstständig aneignen) um der Vorlesung folgen zu können.
Im WS05/06 wurde diese Lehrveranstaltung das erste Mal in der hier beschriebenen Form durchgeführt, es hat sich personell sowie inhaltliches einiges verändert im Vergleich mit der Vorgängerveranstaltung.
Weblinks
Persönliche Kommentare
- (Nicht unterschriebene Kommentare werden gelöscht!)
- War ganz ok. FelixB
- Habe die neu gestaltete Veranstaltung im WS05/06 belegt. (obiger Kommentar von FelixB bezieht sich auf die alte Veranstaltung, die so nicht mehr existiert). Was dieser Veranstaltung fehlt ist ein Skript oder ein durchgängies Lehrbuch. Es ist m. M. nach ziemlich unverschämt, dass man entweder (a) viel Geld ausgeben muss (Russell/Norvig ~ 60EUR) oder (b) nichts versteht. Der Russell/Norvig ist quasi nicht erhältlich in der Uni-Bib. Bei den anderen Büchern siehts etwas besser aus, aber die sind ja nur für die 2. Semesterhälfte. Die Folien sind zu großen Teilen echt grauenhaft (selbsterklärend ist hier ein Fremdwort). Sehr toll auch, dass zu so Themen wie JTMS/ATMS selbst im Russell/Norvig (fast) nichts steht und die Folien zwar ein paar nette Beispiele machen, aber das Thema nicht wirklich hinreichend klären (in den Hausaufgaben muss man die Detailfragen dann aber geklärt haben - Tja wie denn? Entweder raten oder den WM mit fragen löchern - das kanns doch nicht sein, oder?). Die Veranstaltung hat nen hohen Zeitaufwand, hohen Frustfaktor (mein Empfinden) und ist personell zahlenmäßig echt unterbesetzt. 3/10 auf meiner Skala.--BjörnL 04:19, 11. Mär 2006 (CET)