Sitzung: Jeden Freitag in der Vorlesungszeit ab 16 Uhr c. t. im MAR 0.005. In der vorlesungsfreien Zeit unregelmäßig (Jemensch da?). Macht mit!

Grundlagen der Künstlichen Intelligenz: Unterschied zwischen den Versionen

(auf den aktuellen Stand angepasst)
Zeile 7: Zeile 7:
  
 
== Inhalt ==
 
== Inhalt ==
(Von der Website geklaut)
+
* '''Einführung:''' "Was ist künstliche Intelligenz?", Ggschichtlicher Überblick, intelligente Softwareagenten
+
* '''Problemlösen und Suche:''' Problemformulierung, Lösungssuche, informierte Suche, Constraint Satisfaction Problems (CSPs)
* '''Einführung''': Gegenstandsgebiet, Historisches, Stand
+
* '''Planen:''' STRIPS, Planungsalgorithmen
* '''Problemlösen''': Formalisierung, heuristische Suche, Planung durch Teilzielbildung, Anwendungen, menschliches Problemlösen
+
* '''Logikbasierte Agenten:''' Agenten basierend auf Aussagenlogik und Prädikatenlogik
* '''Constraints''':  Formalisierung, Lösungsmethoden, Anwendungen
+
* '''Belief Revision:''' Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based TMSS (JTMS)
* '''Inferenz''': Logische Grundlagen, Resolution, Theorembeweisen, Anwendung in Frage-Antwort-Systemen, logische Programmierung, Nichtmonotone Logik und Rechtfertigungssysteme, unscharfe (Fuzzy-)Inferenz, Vergleich mit menschlichen Schlußprozessen
+
* '''Modallogik:''' Belief, Desire, Intention, BDI Agenten
* '''Wissensrepräsentation''':  Repräsentation durch Graphen, Semantische Netze und Verstehen natürlicher Sprache, objektorientierte Repräsentation, Repräsentation geometrischer Beziehungen (analoge Repräsentation), Anwendungen
+
* '''Bayes Netze:''' probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees
* '''Lernen: Entscheidungsbäume''': Überblick über Probleme und Methoden des Maschinellen Lernens, organismische Lernprozesse, Induktion von Entscheidungsbäumen, Anwendungen
+
* '''Hidden Markov Modelle'''
* '''Funktionslernen'''  
+
* '''konnektionistisches Neuron'''
* '''Lernen''': Perzeptrons Bedeutung, Potentielle Anwendungen, Lernalgorithmus des Perzeptrons
+
* '''Multi-Lagen-Perzeptron:''' Architektur,Lernen,Prädiktion
 +
* '''Probabilistische Verfahren:''' Generative Modelle, Bayessche Verfahren, MAP-Methode, Kostenfunktionen
 +
* '''Einführung in die statistische Lerntheorie:''' Empirical Risk Minimization (ERM), Structural Risk Minimization (SRM), VC-Dimension
 +
* '''Support Vector Maschinen:''' SVMs für linear (+nicht-linear) separable sowie nicht separable Probleme
  
 +
(im Wesentlichen aus den Folien des WS 05/06 entnommen)
  
 
== Tipps und nützliche Infos ==
 
== Tipps und nützliche Infos ==

Version vom 11. März 2006, 02:14 Uhr

Klausuren

Grundlagen der kuenstlichen Intelligenz ist eine Basisveranstaltung im Fachgebiet Methoden der KI (Studiengebiet KI).

Inhalt

  • Einführung: "Was ist künstliche Intelligenz?", Ggschichtlicher Überblick, intelligente Softwareagenten
  • Problemlösen und Suche: Problemformulierung, Lösungssuche, informierte Suche, Constraint Satisfaction Problems (CSPs)
  • Planen: STRIPS, Planungsalgorithmen
  • Logikbasierte Agenten: Agenten basierend auf Aussagenlogik und Prädikatenlogik
  • Belief Revision: Truth Maintenance Systems (TMS), Justification-based TMS (ATMS), Assumption-based TMSS (JTMS)
  • Modallogik: Belief, Desire, Intention, BDI Agenten
  • Bayes Netze: probabilistische Inferenz, DAGs, Decomposable Undirected Graphs, Junction Trees
  • Hidden Markov Modelle
  • konnektionistisches Neuron
  • Multi-Lagen-Perzeptron: Architektur,Lernen,Prädiktion
  • Probabilistische Verfahren: Generative Modelle, Bayessche Verfahren, MAP-Methode, Kostenfunktionen
  • Einführung in die statistische Lerntheorie: Empirical Risk Minimization (ERM), Structural Risk Minimization (SRM), VC-Dimension
  • Support Vector Maschinen: SVMs für linear (+nicht-linear) separable sowie nicht separable Probleme

(im Wesentlichen aus den Folien des WS 05/06 entnommen)

Tipps und nützliche Infos

Da Prof. Wysotzki die Vorlesung nicht mehr halten wird (er verlaesst die Uni), ist es relativ sinnlos, gute Tipps zu geben ;)

Literatur: nichts gelesen

Weblinks


Persönliche Kommentare

(Nicht unterschriebene Kommentare werden gelöscht!)

War ganz ok. FelixB