Publikationen und Medien

Blog-Artikel (DE)

  • Der Wissenshorizont

    Sie sprechen im Buch: Semantische Datenintelligenz im Einsatz, über den «Wissenshorizon», können Sie uns den näher erklären?


    Beim Wissenshorizont geht es um zwei Überlegungen:


    Inwiefern spielt der Wissenshorizont eine Rolle, wenn Botschaften zwischen Sender und Empfängern ausgetauscht werden.

    Wie kann der Wissenshorizont erweitert beziehungsweise synchronisiert werden.


    Woher stammt dieses Konzept des Wissenshorizonts?


    Hans-Georg Gadamer, ein deutscher Philosoph, hatte den Begriff der Hermeneutik und des Wissenshorizonts in seinem Buch «Wahrheit und Methode» ausführlich besprochen.


    Gadamer versteht die Hermeneutik weder als Theorie noch als Methode oder Methodik. Vielmehr ist sie das Phänomen des Verstehens und der sachgerechten Auslegung des Verstandenen. Im Werk bemüht sich Gadamer um die Herausbildung der Begriffe Wahrheit, Sinn, Erkenntnis und Verstehen.


    Eine hermeneutische Regel ist, das Ganze aus dem Einzelnen und das Einzelne aus dem Ganzen zu verstehen. Die Bewegung des Verstehens läuft von einem zum anderen und wieder zurück, wobei das Verständnis von beidem erweitert wird (hermeneutischer Zirkel).


    Einfach gesprochen: Man muss vorher wissen, was man nachher verstehen möchte!


    Können Sie das näher erklären.


    Wenn ich Ihnen eine Botschaft über ein Thema sende, von dem Sie vorher noch nie etwas gehört haben und ich dabei ein Vokabular verwende, welches Ihnen fremd ist, haben sie keine Chance die Botschaft zu verstehen.


    Das klingt logisch und nachvollziehbar. 


    Viele Start-up Firmen, Wissenschaftler und Visionäre machen oftmals den Fehler, dass sie die Neuerungen und Erfindungen zu abstrakt und zu weit in der Zukunft erklären.


    Was wir uns nicht vorstellen / verstehen können (wollen), kann nicht sein.


    Der Mensch bezieht oftmals eine Abwehrhaltung, wenn er eine Veränderung durch Neuheiten befürchtet. 


    Das bedeutet, neue Themen müssen schrittweise erklärt werden.


    Wir Menschen bevorzugen kleine Wissens-Schritte. Jede neue Information muss mit dem Bisherigen verarbeitet und verstanden werden, so dass daraus neues Wissen entstehen und gespeichert werden kann. 


    Gadamer sagt: Das Verstehen ist eine Anwendung auf eine Situation. Die Anwendung beinhaltet eine Auseinandersetzung mit dem Text durch seine Infragestellung. So ist der Sinn eines Textes losgelöst von der Intention des Autors zu verstehen. 


    Wir nennen das die inhärente Semantik. Also die Botschaft des Textes, ohne dass er von einem Menschen interpretiert wird. 


    Gadamer sagt weiter: Die Hermeneutik ist eine Reflexion darüber, was mit einem selbst in einem Dialog geschieht: sich selbst verstehen im Verstehen einer Sache.


    Es geht also im Wesentlichen darum, eine Botschaft möglichst im Sinne des Verfassers zu verstehen.


    Die grosse Herausforderung ist, dass der Verfasser einer Botschaft, diese auf der Basis seines persönlichen Wissenshorizonts verfasst. Damit diese Botschaft im Sinne des Autors verstanden werden kann, sollte der Leser, über einen gleichen/ähnlichen Wissenshorizont verfügen.


    Wie kann der Leser seinen Wissenshorizont erweitern, wenn er ja noch nicht verstanden hat, was er eigentlich neu lernen soll?


    Das ist die Herausforderung, man könnte auch sagen das Paradoxon. Zum Glück ist es selten so, dass Botschaften gar keine Überlappung mit vorhandenem Wissen haben. So ist es in der Regel möglich Brückentexte zu identifizieren, um uns neuem Wissen anzunähern. Allerdings kann das sehr zeitaufwendig sein. An der Stelle kann ML (Maschine Learning) und AI (Artificial Intelligence) helfen!


    Wie kann die ML/AI das?


    Neueste ML- und AI-Lösungen sind in der Lage, die inhärente Botschaft in einen semantischen Fingerprint zu überführen. Die Worte sind nicht in zufälliger Reihenfolge, sondern folgen einer Grammatik, welche die inhärente Semantik speichert. Mit dem semantischen Fingerprint kann die Botschaft mit Millionen anderer Texte verglichen werden. «Semantic Matching»


    Die Matches (Treffer) werden mittels einer Prozentzahl von 0 bis 100% Match deklariert. Alle Matches zwischen 85% und 99% sind leicht unterschiedlich zum Originaltext formuliert, aber inhaltlich nahe. Das könnten Brückentext zu meinem Wissen sein!


    ML kann also dazu genutzt werden, Texte mit ähnlichen Botschaften zu finden, in der Hoffnung, dass ich so mein Wissen schrittweise erweitern kann!


    Damit ist gewährleistet, dass inhaltlich ähnliche Botschaften zum Original-Text ohne vorherige Interpretation gefunden werden.


    Alles klar, daher Ihr Werbespruch


    ai-one™ gibt Antworten auf Fragen, welche noch nicht gestellt wurden.


    © ai-one | wd | 25. September 2021

  • Soziale Prägung

    Sie sprechen im Buch: Semantische Datenintelligenz im Einsatz, über «geprägte Botschaften», können Sie uns das näher erklären?


    Das sind Botschaften, welche gezielt Inhalte vermitteln, die nicht den Tatsachen entsprechen. Sie sind in einer Art formuliert, welche einen bestimmten Zweck erfüllen soll, in dem falsche Informationen wiedergegeben werden oder der Kontext so manipuliert wurde, dass eine neue Botschaft entsteht. 


    Geprägte, also tendenziös verfasste Botschaften sind Botschaften, welche politisch, emotional, oder aus anderen Motiven übertrieben oder dramatisiert sind. In einzelnen Fällen sind solche Botschaften mutwillig und mit krimineller Energie verfälscht. Das sind Lügen, auch bekannt als «Fake News». 


    Was ist die Motivation zu solchen Botschaften?  


    Da gibt es mannigfache Gründe. Bei Prozessen und Gerichtsverfahren geht es um die Verschleierung von Tatsachen und Sachverhalten oder um die Begünstigung/Benachteiligung von Personen.  


    In der Politik geht es um das Erreichen von Zielen. Man erhofft sich durch Dramatisierungen und Optimierungen Inhalte und Botschaften dahingehend zu verändern und darzustellen, so dass sie den eigenen Interessen und Strategien entsprechen. Dabei werden Botschaften positiv wie negativ beschönigt. 


    Was hat das mit ML & AI zu tun?


    Um Botschaften präzise zu verstehen und einzuordnen, benötigt der Empfänger den gleichen Wissenshorizont wie der Sender. Bei geprägten Botschaften ist es um so wichtiger, einen gleichen Wissenshorizont zu haben und es ist hilfreich die Umstände und Motivation zur Botschaft zu kennen. So kann sich der Empfänger mit dem Sender gedanklich synchronisieren und verstehen, welche Absicht der Sender mit seiner Botschaft verfolgt. 


    Wie kann da ML & AI helfen?


    Die Frage stellt sich, müssen Botschaften von ML & AI zuerst verstanden werden, um sie vergleichen zu können?


    Und - müssen sie?


    Nein - das ist das Raffinierte. 


    Das müssen Sie näher erklären!


    Stellen Sie sich vor, es liegt ein Text vor Ihnen, aber niemand liest ihn! Hat dieser Text trotzdem eine Botschaft?  


    Das habe ich mir noch nie überlegt, hat er?


    Ja genau, er hat eine Botschaft. Wir nennen das die intrinsische oder inhärente Semantik (= innewohnende Semantik). Die Worte in einem Text werden nach den Regeln der Grammatik der verwendeten Sprache platziert und sind nicht in einer zufälligen Reihenfolge. Das bedeutet, jeder Text, der nach einer Grammatik folgenden geschrieben ist, hat eine intrinsische Semantik (Botschaft) auch wenn er nicht gelesen oder verstanden wird. 


    Was bedeutet das für das ML & die AI?


    Indem man diesen Text in ein maschinenlesbares Format konvertiert, ohne dabei die Semantik zu verändern, kann ML eine neutrale Analyse ausführen. 


    Dieses maschinenlesbare Format nennen wir den semantischen Fingerprint. Mit dem semantischen Fingerprint wird ein Vektorraum erstellt, in dem die unveränderte Botschaft maschinenlesbar konvertiert wurde. 


    Jetzt können mit Hilfe von ML & AI blitzschnell unterschiedliche semantischen Analysen erstellt werden. Der semantische Fingerprint kann auch dazu benutzt werden, den Wissenshorizont zu erweitern und zu synchronisieren. 


    Ich verstehe, der semantische Fingerprint hilft der Maschine, Botschaften besser und schneller zu verstehen, in dem er hilft, den Wissenshorizont überlappend zu gestalten? Ist das so korrekt formuliert? 


    Ja, so kann man das sagen. 


    Damit ist gewährleistet, dass inhaltlich ähnliche Botschaften zum Original-Text des Senders und nicht zu meiner Beurteilung oder Auswertung und Interpretation als Empfänger gefunden werden. 


    Alles klar, jetzt weiss ich, warum in der Kommunikation oftmals grosse Missverständnisse entstehen können. Die ai-one™ Technologie mit der Applikation BrainDogs™ hilft, Missverständnisse aufzulösen. 


    Ja genau!


    © ai-one | wd | Oktober 2021

  • OpenAI "ChatGPT"

    ChatGPT ist ein natürlicher Sprachgenerator, der von OpenAI entwickelt wurde. Es nutzt künstliche Intelligenz und maschinelles Lernen, um menschenähnlichen Text zu generieren und auf Texteingabe zu reagieren. Es kann in vielen Anwendungen wie Chatbots, Textzusammenfassungen und automatischen Übersetzungen eingesetzt werden.


    Wie funtioniert ChatGPT, Was bedeutet GPT?


    GPT steht für "Generative Pre-trained Transformer". Es ist ein künstlicher Intelligenz-Modell, das auf natürlicher Sprache trainiert wurde, um menschenähnlichen Text zu generieren. GPT wurde von OpenAI entwickelt und nutzt einen Transformer-basierten Ansatz, bei dem das Modell auf einer großen Menge an Texten "vor-trainiert" wird, bevor es für spezifische Aufgaben verwendet wird. Es kann in vielen Anwendungen wie Textzusammenfassungen, automatischen Übersetzungen und Text-Generierung eingesetzt werden.


    GPT-2 (Generative Pre-trained Transformer 2) und GPT-3 (Generative Pre-trained Transformer 3) sind beide natürliche Sprachgeneratoren, die von OpenAI entwickelt wurden.


    GPT-2 wurde im Februar 2019 veröffentlicht und verfügt über 1,5 Milliarden Neuronen und 175 Milliarden Parameter. Es wurde auf einer großen Menge an Texten vor-trainiert und kann in vielen Anwendungen wie Textzusammenfassungen, automatischen Übersetzungen und Text-Generierung eingesetzt werden.


    GPT-3 wurde im Juni 2020 veröffentlicht und verfügt über 175 Milliarden Neuronen und 175 Milliarden Parameter. Es wurde auf einer noch größeren Menge an Texten vor-trainiert als GPT-2 und kann auch in vielen Anwendungen eingesetzt werden. Es wurde jedoch dafür kritisiert, dass es zu "zu menschenähnliche" Antworten liefert, was die Gefahr einer Täuschung des Benutzers mit sich bringt.


    GPT-3, wie andere künstliche Intelligenz-Modelle, kann jedoch aufgrund der Art und Weise, wie es trainiert wurde, bestimmte Arten von Bias aufweisen. Es wurde auf einer großen Menge an Texten trainiert, die im Internet verfügbar sind, und daher kann es die gleichen Vorurteile und Unvollständigkeiten in Bezug auf Geschlecht, Rasse, Ethnizität, Sexualität und andere Faktoren aufweisen, die in diesen Texten enthalten sind.


    Es ist wichtig zu beachten, dass GPT-3 nicht bewusst biasiert ist, sondern dass es einfach die Muster und Trends in den Daten widerspiegelt, auf denen es trainiert wurde. 


    Um diese Probleme zu minimieren, empfehlen Experten, GPT-3 und andere künstliche Intelligenz-Modelle mit diversen und repräsentativen Datensätzen zu trainieren und sie regelmäßig zu überprüfen und zu kalibrieren.


    .. an der Stelle kommt der semantische fingerprint, mit der inhärenten semantic analyse ins Spiel. 

  • Ist AI auch Autor bez. Urheber?

    Die Frage nach dem Urheberrecht bei Werken der Künstlichen Intelligenz (KI) wie bei ChatGPT und anderen KI-Lösungen


    Was OpenAI / ChatGPT dazu sagt:


    Die Autoren- und Urheberrechte bei ChatGPT gehören OpenAI, die Firma die es entwickelt hat. OpenAI hat die Rechte, das Modell zu verwenden, zu verbreiten und zu lizenzieren. Es gibt jedoch auch eine Open-Source-Version von ChatGPT, die unter bestimmten Lizenzen verfügbar ist und von Entwicklern und Forschern verwendet werden kann, um ihre eigenen Anwendungen und Projekte zu erstellen. Es ist jedoch wichtig zu beachten, dass OpenAI das Recht hat, die Nutzungsbedingungen für die Open-Source-Version jederzeit zu ändern.


    Was am 9. JANUAR 2023 BY CULBRICHT sagt:


    Gemäss deutschem Recht wird im Hinblick auf § 2 Abs.2 UrhG derzeit überwiegend davon ausgegangen, dass Werke, die von einer KI erzeugt werden, mangels „menschlicher Schöpfung“ nicht urheberrechtlich geschützt sind. Das würde bedeuten, dass Dritte die Werke beliebig verwenden könnten.


    Teilweise wird aber auch angenommen, dass KI-Kunstwerke einen urheberrechtlichen Schutz unterfallen, wenn der Einfluss eines Menschen so bestimmend ist, dass ihm das Ergebnis des Gestaltungsprozesses noch zugerechnet werden kann. Das wären aber wohl nur Fällen, wenn der „menschliche Anteil“ so hoch ist, dass der Einsatz des KI-Modells eine eher untergeordnete Bedeutung hat.


    Unter Zugrundelegung deutschen Rechts wäre bezüglich ChatGPT insofern allerdings davon auszugehen, dass die Texte mangels Urheberrechtsschutzes in rechtlicher Hinsicht beliebig verwendet werden können.


    Die oben stehenden Ausführungen zeigen, dass das geltende Urheberrecht derzeit nicht in der Lage ist, die Rechtsfragen und „Verteilungskonflikte“ bei KI-basierten Werken zufriedenstellend zu regeln. Gleichwohl gilt das aktuelle Urheberrecht so lange, bis der Gesetzgeber hier neue gesetzliche Regelungen erlässt.


    Die Chancen und Risiken KI-basierter Anwendungen wie auch die Nutzung KI-generierter Werke sollte daher unter Beachtung der jeweils geltenden urheberrechtlichen Implikationen miteinander abgewogen werden.


    Für die Anbieter KI-basierter Anwendungen sind insoweit die Erhebung und die Zulässigkeit der Nutzung der Trainingsdaten, aber auch die „Steuerung“ der Nutzung der KI-generierten Werke von besonderer Bedeutung.


    Für die Nutzer richtet sich die Zulässigkeit der Veröffentlichung oder anderweitigen Nutzung KI-basierter Werke bzw. der damit einhergehenden Risiken nach dem jeweils anwendbaren nationalen (Urheber)recht und den Bedingungen (siehe etwa die Terms of Use von OpenAI), unter denen der Anbieter der jeweiligen Anwendung die jeweilige Nutzung erlaubt.

  • Das Kapitel 11 im Buch: "Semantische Daten Intelligenz im Einsatz"

    Soeben ist das neue Buch: «Semantische Daten Intelligenz im Einsatz» herausgekommen. Sie haben das Kapitel 11 im Buch beigesteuert. Worum geht es? 


    Es geht im Grundsatz um das Thema, wie Maschinen «Systeme, Roboter, Software, Automaten etc.», Botschaften inhaltlich verstehen können und welche Herausforderungen zu beachten sind. 


    Was für grundlegende Herausforderungen stellen sich bei der Textanalyse mittels ML oder AI? (ML= Maschine Learning / AI = Artificial Intelligence) 


    Die eine grosse Herausforderung ist, dass der Sender (Verfasser / Autor) einer Botschaft, diese auf der Basis seines persönlichen Wissenshorizonts verfasst. Das bedeutet, dass jeder Empfänger und Leser, dieser Botschaft, über einen gleichen oder einen ähnlichen Wissenshorizont verfügen muss, damit er die Botschaft verstehen kann.


    Können Sie das vielleicht näher erklären. 


    Gerne zwei Beispiele: 


    Wenn die Botschaft mittels eines Wortschatzes verfasst ist, der dem Empfänger gänzlich oder weitgehend unbekannt ist, wird er den Text und damit die Botschaft nur teilweise oder gar nicht verstehen können.

    Wenn die Botschaft in einer dem Empfänger unbekannten Sprache verfasst ist, kann er gar nichts verstehen. 


    Natürlich umfasst der Wissenshorizont noch viele weitere Faktoren, aber das sind zwei anschauliche Beispiele. 


    Was hat das jetzt mit ML & AI zu tun?


    Die Maschine, welche eine Botschaft verstehen soll, muss demnach mit einem Wissenshorizont ausgestattet und angelernt werden. Dabei muss sichergestellt sein, dass der korrekte Wissenshorizont verwendet wird. Klingt einfach, ist es aber nicht. Denn die Frage stellt sich: wer bestimmt und kontrolliert den Wissenshorizont? 


    Ich verstehe und merke, wohin das alles führt. Sie wollen damit erklären, dass Maschinen wie Menschen auch nur das können, was sie gelernt haben. 


    Genau, aber es kommt noch komplexer! Wir müssen auch noch über geprägte Inhalte sprechen. 


    Was ist das?


    Das sind Botschaften, welche gezielt geprägt, also tendenziös verfasst sind. Man könnte sagen, dass die Botschaften nicht neutral oder komplett den Tatsachen entsprechen, sondern politisch, emotional, oder aus anderen Motiven übertrieben oder dramatisiert sind, bis hin zu leicht verfälscht oder gar als Fake News (Lügen) bezeichnet werden müssen. 


    Das bedeutet, unsere Maschine muss nicht nur den Wissenshorizont haben, um eine Botschaft generisch korrekt zu verstehen, die Maschine muss auch noch einordnen können, ob der Inhalt neutral oder geprägt sein könnte. 


    Denn nur wenn die Maschine die Botschaft korrekt verstehen kann, kann sie darauf aufbauend korrekte Entscheidungen für eine nachfolgende Aktivität fällen, wie z.B. einen Alarm auslösen, eine Aktion starten oder aber auch einfach nichts tun, etc.... 


    Ich verstehe, ML ist also viel mehr als nur ein bisschen Text auswerten! 


    Genau, wenn wir über AI sprechen, dann müssen ganz viele kleine Bausteine passen, damit sich eine Maschine «menschenartig» verhalten kann. Denn wenn das Ziel ist, dass sich eine Machine in «menschliche» Abläufe eingliedern soll, dann muss sie sich ebenbürtig verhalten können.


    Denken Sie dabei nicht nur an Textanalyse, das Gleiche gilt für autonomes Fahren, Cyberkriminalitäts-Abwehr, Robotersteuerungen, alles was mit ML & AI in Berührung ist. Denn in all diesen Systemen werden technische Daten, Texte sowie Bilddaten (Botschaften) ausgetauscht, welche blitzartig richtig interpretiert werden müssen. 


    OK - und was hat das alles jetzt mit dem Wissenshorizont zu tun? 


    Stellen Sie sich vor, ein Ausländer aus einem sehr unterschiedlichen Kulturkreis kommt in Ihr Land. Er kann die Sprache nicht und er kennt unsere Kultur, also unsere sozialen Strukturen und unsere sozialen Verhaltens-Eigenheiten nicht. 


    Dann gibt es Schwierigkeiten!


    Genau dann passiert genau das, was überall passiert. Der Ausländer fällt negativ auf. Er wird als minderwertig und als dumm betrachtet, nur weil er uns nicht verstehen kann, weil sein Wissenshorizont keine Überlappung mit unserem hat. – Aus seiner Sicht sind wir dumm und ignorant. Der Ausländer versteht uns tatsächlich und faktisch nicht. 


    Wobei wir gar nicht so weit suchen müssen, lassen sie einfach Rechte, Bürgerliche und Linke zusammen mit grünen Politikern aufeinandertreffen. Dann kommt man sich auch so vor, wie wenn alle aus einem entfernten Kulturkreis ohne Überlappung stammen würden.


    Unsere Politiker könnten sich verstehen, wollen aber nicht. Sie haben eine stark geprägte Meinung und argumentieren durch eine politisch gefärbte Brille. 


    Wo liegt dann der Vorteil, Maschinen einzusetzen, wenn sie uns gar nicht überlegen sind?


    Es gibt tatsächlich viele Bereiche, in denen uns Maschinen sehr überlegen sind. Wenn es um das Vergleichen geht, schnell Millionen an Daten in einer bestimmten und validierten Art zu verarbeiten, dann sind Maschinen unschlagbar wie auch bei der Suche nach Mustern, bestimmten Daten oder Kombinationen etc. 


    Wir haben bei ai-one den semantischen Fingerprint entwickelt. Das ist ein generischer Abdruck der inhärenten Aussage der Botschaft eines Textes, überführt in einen nummerischen Vektorraum. 


    Das verstehe ich jetzt noch nicht.


    Stellen Sie sich einen Text vor, der auf dem Tisch liegt, aber niemand liest den Text. Hat der Text trotzdem eine Botschaft? 


    Ich vermute Ja?


    Wir sagen auch Ja! Die inhärente Semantik ist die Botschaft, sogar wenn sie nicht gelesen und von einem Menschen interpretiert wird. 


    Die Worte sind gemäss der Grammatik einer Sprache platziert. Ein überlappender Wissenshorizont erkennt sofort die Botschaft, weil er die Worte und deren Struktur wie sie platziert sind, erkennt. Der Wissenshorizont kann sofort ähnliche Texte und Botschaften zeigen. Damit kann ich die Worte und deren Bedeutung im Einzelnen als auch die Bedeutung in den Sätzen verstehen. 


    Ich verstehe, der semantische Fingerprint hilft der Maschine, Botschaften besser und schneller zu verstehen, in dem er hilft, den Wissenshorizont überlappend zu gestalten? Ist das so korrekt formuliert? 


    Ja, so kann man das sagen. 


    Der semantische Fingerprint überführt die inhärente Botschaft automatisch in einen berechenbaren Vektorraum. Dadurch können Millionen ähnlicher Botschaften blitzschnell und unvoreingenommen verglichen werden, um so einen gemeinsamen Wissenshorizont zu erzeugen. Darüber hinaus arbeitet der semantische Fingerprint mit der generisch vorhandenen Botschaft, ohne Interpretation oder Gewichtung der Botschaft im ersten Schritt. 


    Damit ist gewährleistet, dass inhaltlich ähnliche Botschaften zum Original-Text vom Sender und nicht zu meiner Beurteilung oder Auswertung und Interpretation als Empfänger gefunden werden. 


    Alles klar, jetzt weiss ich, warum in der Kommunikation oftmals grosse Missverständnisse entstehen können. Die ai-one™ Technologie mit der Applikation BrainDogs™ hilft, Missverständnisse aufzulösen.  


    © ai-one | wd | Juli 2021

Blog Article (EN)

Aktuelle Publikationen

Publication

Kapitel 11:

Semiotik, ein Schlüsselelement für Systeme mit künstlicher Intelligenz

... wie dieselbe Botschaft unterschiedlich verstanden werden kann ...

01

Die intrinsische Semantik

Die intrinsische Semantik ist die Semantik eines Textes, wenn er nicht gelesen wird

02

Der semantische Fingerprint

Der semantische Fingerprint ist das «technische» Abbild des Inhalts einer Botschaft oder Information

03

Der hermeneutische Zirkel 

Wenn man an einen Text herangeht, hat man ein bestimmtes Vorverständnis, eine gedankliche Prägung. Damit ist der Horizont eines Lesers gemeint

04

Der semantische Matcher

Die Fingerprint werden mittels dem Matcher auf ihre Ähnlichkeit verglichen und mit einer Zahl zwischen 0 und 1 in iherer Ähnlichkeit bewertet.

Springer LINK : On-line Edition | Co-Autor Walt Diggelmann

Frühere Publikationen

NASA - Marshall Space Flight Center Research and Technology Report 2015

The investments in technology development we made in 2015 not only support the Agency's current missions, but they will also enable new missions. Some of these projects will allow us to develop an in-space architecture for human space exploration; Marshall employees are developing and testing cutting-edge propulsion solutions that will propel humans in-space and land them on Mars. Others are working on technologies that could support a deep space habitat, which will be critical to enable humans to live and work in deep space and on other worlds. Still others are maturing technologies that will help new scientific instruments study the outer edge of the universe-instruments that will provide valuable information as we seek to explore the outer planets and search for life.



Document ID 20160006403


Report Number M16-5259 | NASA/TM-2016-218221


AI Agents to Support Data Mining for Early Stage of Space Systems Design

978-1-7281-2734-7/20/ ©2020 IEEE

The complex and multidisciplinary nature of space systems and mission architectures is especially evident in early stage of design and architecting, where systems stakeholders have to keep into account all the aspects of a project, including alternatives, cost, risk, and schedule and evaluate various potentially conflicting metrics with a high level of uncertainty.

The amount of available information is now very large and originates from multiple sources, often with diverse representations, and useful data for trade space analysis or analysis of all potential alternatives can be easily overlooked.


The variety and complexity of the systems involved and of the different domains to be kept into account can generate unexpected interactions that cannot be easily identified; third, continuous advancements in the field of aerospace resulted in the development of new approaches and methodologies, for which a common knowledge database is not existing yet, thus requiring substantial effort upfront.


To address these gaps and support both decision making in early stage of space systems design and increased automation in extraction of necessary data to feed working groups and analytical methodologies, we propose the training and use of Artificial Intelligence agents.


Document Download

Wissensorganisation und -repräsentation mit digitalen Technologien

Hrsg. v. Keller, Stefan Andreas / Schneider, René / Volk, Benno / Walter Diggelmann (Page 128 - 145) 


Im Sammelband werden die sehr unterschiedlichen konzeptionellen und technologischen Verfahren zur Modellierung und digitalen Repräsentation von Wissen in Wissensorganisationen (Hochschulen, Forschungseinrichtungen und Bildungsinstitutionen) sowie in Unternehmen anhand von praxisorientierten Beispielen in einer Zusammenschau vorgestellt.


Dabei werden sowohl grundlegende Modelle der Organisation von Wissen als auch technische Umsetzungsmöglichkeiten sowie deren Grenzen und Schwierigkeiten in der Praxis insbesondere in den Bereichen der Wissensrepräsentation und des Semantic Web ausgelotet.


Good practice Beispiele und erfolgreiche Anwendungsszenarien aus der Praxis bieten dem Leser einen Wissensspeicher sowie eine Anleitung zur Realisierung von eigenen Vorhaben.


https://doi.org/10.1515/9783110312812.toc

Share by: