Die Unternehmenssensorik als konstituierendes Element der Organizational Intelligence

Im letzten Beitrag haben wir die Anforderungen an die Vernetzung und Verknüpfung industrieller Prozesse beschrieben:

1. Echtzeitbedingung
2. Vernetzungsbedingung
3. Nutzen- und Wertsteigerung
4. Transparente, eindeutig interpretierbare und vollautomatische Entscheidungsfindung
5. Selbstlernende Systeme.

Im zweiten Teil unserer Serie widmen wir uns der Frage, wie wir diese Eigenschaften nutzen können, um ein Unternehmen mit seiner Umwelt zu verknüpfen. Manchmal scheint es fast, dass Ideen doch zum Greifen nahe gewesen wären. Dennoch befindet sich plötzlich das eigene Unternehmen in Schieflage, weil ein neuer Mitbewerber mit Innovationen kommt, die Kundenwünsche viel besser abdecken als eigene Lösungen. Dies gilt umso stärker, je näher die eigenen Geschäftsmodelle an Dienstleistungen oder Konsumgütern sind. Ein Tank mit Ammoniak dürfte weniger solchen Überlegungen unterliegen als ein Gerät, welches verschiedene Dienste offeriert, die sich digital konfigurieren lassen, wie ein Smartphone.

Neue Tools werden benötigt

Um Entwicklungen in der Außenwelt, plötzlich auftretende Ereignisse oder die Verkettung von kleineren Entwicklungen hin zu einer Änderung des Kundenverhaltens frühzeitig zu erkennen und für sich positiv zu beeinflussen oder negative Effekte zu minimieren, benötigen Unternehmen neue Tools. Diese müssen in der Lage sein, die Außenwelt – sortiert nach Relevanz für das eigene Unternehmen – darzustellen und Ereignisse, die die Geschäftsmodelle und Kernprozesse direkt betreffen, zu erkennen, zu filtern und Entscheidungen teil- oder vollautomatisiert vorzubereiten oder gar zu treffen. Im Verbund funktionieren diese Tools als eine Art Unternehmenssensorik.

Herausforderung Künstliche Intelligenz

Während Sammlung und Analyse von Ereignissen und Daten durch die Auswahl von passenden Experten, Entwurfsmethoden und Framework bewältigt werden können, liegen die Herausforderungen insbesondere darin, dass einzelne Hinweise in den Datenströmen für sich keinerlei Bedeutung zu besitzen scheinen oder die Details in den Mustern untergehen und somit erst spät entdeckt werden. Die Wahrscheinlichkeit des Versagens sinkt mit der Häufigkeit des Auftretens, doch dann könnte es für die Pionierleistung bereits zu spät sein.

Reibungslose Automatismen können erreicht werden

Es zeigt sich, dass für die Unternehmenssensorik ähnliche Anforderungen gelten wie für die Industrie im Allgemeinen bei der Umstellung auf neue Verfahren, die durch digitale Werkzeuge begünstigt sind. Durch sinnvolle Integration im Rahmen von Organizational Intelligence können Synergien genutzt werden. So wird neben der Entscheidungsfindung auch deren Umsetzung deutlich beschleunigt. Am Ende steht die Vollendung der reibungslosen Automatismen, die schon seit Jahrzehnten in der Forschung als Ziel skizziert sind.

Führungskraft für unser IT-Security Lab gesucht!

Führungskraft für unser IT-Security Lab gesucht!

Wir suchen eine Führungskraft für unser
frisch gegründetes Lab IT-Security

 

Die GFFT (Gesellschaft zur Förderung des Forschungstransfers) ist eine deutschlandweit agierende Organisation unter dem Dach eines gemeinnützigen Vereins, welche sich dem Thema Innovation verschrieben hat. Zu unseren Kunden gehören große Konzerne wie ALTANA, Deutsche Bank, Fraport, Lufthansa und Thyssenkrupp.

Wir erarbeiten gemeinsam mit Partnern, eigenen Entwicklern und Promotionsstudenten innovative, zukunftsweisende Lösungen rund um das Thema IT-Security. Daher suchen wir ab sofort eine Führungskraft für unser Lab sowie unser GFFT-Netzwerk IT-Security.

Ihre Aufgaben:

  • Definition neu zu entwickelnder Security-Werkzeuge
  • Beantragung von F&E-Projekten und Projektleitung
  • Ausbau und Leitung unseres GFFT-Labs IT-Security
  • Auswahl und Pflege von Kunden, Technologie- und Beratungspartnern
  • Vorstellung unserer Arbeit und Themen nach Außen (auch in Workshops…)

Ihr Profil:

Ein(e) engagierte(r) (Wirtschafts-)Informatiker(in) oder einem nah verwandten Studiengang mit guten bis sehr guten Kenntnissen in IT-Security oder angrenzenden Themenfeldern. Weiterhin sind Sie motiviert, ein Team anzuleiten und Neues zu schaffen. Wenn das auf Sie zutrifft, dann schicken Sie Ihre Bewerbungsunterlagen bitte an:

Dr. Gerd Große, Geschäftsführer                    Bernhard Koch, Geschäftsführer
E-Mail: gerd.grosse@gfft-ev.de                          E-Mail: bernhard.koch@gfft-ev.de
Tel.: 06101 95498-0                                                    Tel.: 06101 95498-0

 

GFFT Innovationsförderung GmbH, Niddastraße 6, 61118 Bad Vilbel

© Copyright by GFFT Technologies – All Rights Reserved

Stellenanzeige_Fuehrungskraft

Netzwerktreffen am 16.11.2017

Die Partner der ZIM-geförderten Kooperationsnetzwerks „Erfolgreiche IT-Großprojekte: Mit System zum Erfolg“ treffen sich am 16.11.2017 in Frankfurt. Neben aktuellen Informationen zu den FuE-Projekten des Netzwerks und zum Technologietransfer steht bei diesem Netzwerktreffen vor allem das Thema „Künstliche Intelligenz“ im Mittelpunkt.

Lernende Unternehmen sind in Deutschland kein Thema

Ein neuer Blog der Gesellschaft zur Förderung des Forschungstransfers (GFFT) will den Begriff „Organizational Intelligence“ im deutschsprachigen Raum etablieren und mit Leben füllen. Vereinfacht ausgedrückt, versteht man darunter die Verbindung von Wissensmanagement und organisationellem Lernen, also all diejenigen Prozesse und Strukturen, die ein lernendes Unternehmen ausmachen. Der Einsatz künstlicher Intelligenz spielt dabei ebenfalls eine Rolle wie die Fähigkeit von Menschen, mit Veränderungsprozessen adäquat umzugehen.

„Zwar ist der Begriff ‚Organizational Intelligence‘ seit mehreren Jahrzehnten gebräuchlich, das dahinterstehende Konzept des lernenden Unternehmens im Kontext der Digitalisierung und der technologischen Veränderung ist jedoch im deutschsprachigen Raum kaum bekannt“, erläutert GFFT-Vorstandsmitglied Bernhard Koch. „Angesichts der Bedeutung des Themas für die mit der Digitalisierung einhergehenden gesellschaftlichen und wirtschaftlichen Veränderungen, ist das kaum nachvollziehbar“.

Die GFFT hat nun einen neuen Blog ins Leben gerufen, auf dem das Thema aus verschiedenen Blickwinkeln diskutiert wird. Den Auftakt macht ein Beitrag zur Bedeutung der Organizational Intelligence im Hinblick auf die Rolle der Digitalisierung in der Industrie 4.0.

„In der Praxis kann man häufig beobachten, dass die Digitalisierung vom Werkzeug zur Erfüllung der unternehmerischen Ziele zum Selbstzweck erhoben wird“, erklärt der Verfasser des Beitrags, David Veith. „Dabei sollte es vielmehr darum gehen, die zur Anpassung an veränderte Anforderungen benötigten Methoden präzise zu bestimmen und korrekt anzuwenden“. Nur so könnten flexible, an die jeweiligen Bedürfnisse angepasste Verfahren entwickelt werden.

Weitere geplante Blog-Beiträge werden sich mit den zu erwartenden Herausforderungen für die Unternehmensleitung oder mit möglichen Konsequenzen für die Belegschaft befassen. Auch wird die Frage diskutiert werden, wie Unternehmen alle relevanten internen und externen Informationen in einer Art Frühwarnsystem zusammenführen können.

Den Blog und weitere Informationen zum Thema finden Sie unter

www.organizational-intelligence.de.

Ansprechpartner für Rückfragen:

GFFT Innovationsförderung GmbH

Bernhard Koch

Tel: 06101/95 49 80

Bernhard.koch@gfft-ev.de

GFFT-Jahreshauptversammlung zum Thema „Organizational Intelligence“ am 19. April 2018

Willkommen @ InLoox

Project Management goes Outlook – Netzwerkleiter Thorsten Arendt freut sich, mit der InLoox GmbH einen weiteren innovativen Technologieanbieter in seinem Netzwerk IT-Governance begrüßen zu dürfen.

Das Münchner Unternehmen InLoox wurde 1999 gegründet und entwickelt Projektmanagement-Lösungen, die Geschäftsprozesse vereinfachen und beschleunigen. Das Produktportfolio besteht derzeit aus den beiden Produktlinien InLoox PM zur Installation im eigenen Netzwerk und aus InLoox now!, der Projektsoftware als Service. Endanwender können entweder via InLoox für Outlook, einer intuitiven, vollständig in Microsoft Outlook integrierten Projektmanagement-Software oder über die Online-Projektsoftware InLoox Web App auf ihre Projektdaten zugreifen. InLoox ist mittlerweile bei 20 Prozent der DAX-Unternehmen und bei mehr als 50.000 Anwendern auf fünf Kontinenten und in über 50 Ländern im Einsatz. InLoox hat neben dem Hauptsitz in München ein Büro in Stans, Schweiz sowie eine Niederlassung in San Francisco, USA.

Entwicklung des Themas Organizational Intelligence: Industrie 4.0

Es vergeht nicht ein Tag, an dem nicht Folgen der Digitalisierung in Umwelt, Werbung oder den Medien eine Rolle spielen. Die sogenannten Digital Natives, junge Menschen die mit der Digitaltechnik als bestimmendes Element aufgewachsen sind, bestimmen durch ihr Konsumverhalten und Wahrnehmung der Freizeitgestaltung mehr und mehr unsere Gesellschaft sowie unseren Umgang mit den vielfältigen Möglichkeiten der Digitalisierung.

Schon 1997 hat Clayton M. Christensen mit seinen Thesen der disruptiven Technologie den Werdegang der Digitalisierung richtungsweisend beschrieben. Dinge des alltäglichen Lebens und der Industrie, die uns lange Zeit als vertraute Wegbegleiter erschienen, sind in den letzten Jahrzehnten zunehmend von günstigeren, im Funktionsumfang umfangreicheren und durchaus auch zuverlässigere Technologie ersetzt worden, was zu einer Verdrängung der bis dato als gesetzt gesehenen Großkonzerne geführt hat. Nicht selten werden noch große Namen von Fachleuten schon als obsolet angesehen und die dargebotenen Produkte erfüllen nicht mehr die Wünsche der Nutzer. Sobald die noch vorhandenen Kapazitäten aufgebraucht sind, können die alte Innovationsgrößen, die heute eher einem schlafenden Riesen gleichen, nicht mehr vom vergangenen Anspruch zehren und werden nach und nach vom Markt verschwinden.

Im Wettbewerb um die Nachfolge der obsoleten Unternehmensformen rückt die Digitalisierung und ihre Abhängigkeiten in den Fokus. Gerne wird die Digitalisierung als Ziel des ganzen Unterfangens gesehen und damit vom Werkzeug zum Selbstzweck erhoben. Bei genauer Betrachtung ergibt sich jedoch, dass die Digitalisierung wie jedes Werkzeug uns neue Operatoren und Primitive zur Verfügung stellt, die wir zur Erfüllung von Bedarfen nutzen können. Die Kunst besteht nun in der Wohldefiniertheit und Vollständigkeit der Methoden und der korrekten Anwendung.

Die momentan in großer Zahl aufkommenden Zukunftsprojekte rund um die Industrie 4.0 sind nichts weiter als eine Folge dieser Entwicklung. Die Produktion soll sich den Wünschen anpassen und dies durch eine hochgradige Flexibilisierung erreichen. Nun ist das Konzept der flexiblen Fertigungssysteme nicht neu (siehe beispielsweise Eversheim, 1989), jedoch sehr aufwändig und teuer.

Fertigungsstraßen sind bisher darauf ausgelegt in großer Stückzahl einen wohldefinierten Prozess durchzuführen. Modifikationen sind häufig mit Konfigurations- oder gar Umbaumaßnahmen verbunden, die die Produktion für einen Zeitraum von wenigen Tagen bis mehrere Monate ruhen lassen können – je nach Ausmaß auf einen Teil beschränkt bis hin zur Gesamtanlage des Standorts.

Die Umsetzungsempfehlungen aus einer Zusammenarbeit der Forschungsunion und acatech aus dem Jahr 2013 nennen viele relevante Aspekte, die bei der Erfüllung der Vision der flexiblen Fertigungssysteme helfen sollen. Die schon angedeutete dynamische Konfigurierbarkeit der Produktionsanlagen, ohne die bisher notwendigen Ausfallzeiten, die Ad-hoc Vernetzung zwischen den einzelnen Elementen der Anlagen bzw. zwischen den Anlagen untereinander bis hin zur Vernetzung mit allen Punkten der Supply-Chain. Hier kommt die weiterhin geforderte Dezentralisierung der Prozesse und Arbeit ins Spiel, um diese Vernetzung zu erreichen. Automatische, intelligente Systeme überwachen die Anlagen und deren Vernetzung und greifen bei Bedarf steuernd ein. Der letzte Punkt rundet den Rahmen, in dem sich das Thema Industrie 4.0 bewegt, ab und bildet den Fokus, auf den wir uns als GFFT fokussieren.

Die letzte Instanz muss zwei Herausforderungen meistern:

1. Wie kann der Gesamtprozesse automatisiert werden?
2. Welchen Grad der Intelligenz benötigen wir, um hinreichend genau eingreifen zu können?

Für die erste Herausforderung werden von diversen Unternehmen und Konsortien schon Schritte unternommen, um nach und nach die Prozesse in der Fertigung und Logistik zu automatisieren und die Möglichkeiten der einzelnen Anlagen zu optimieren. Wir müssen uns an die Schnittstellen der Sensoren und Steuerungssysteme ankoppeln.
Diese Daten können wir dann an die Instanz geben, die Entscheidungen automatisiert trifft, oder im besonderen Fall zur Überprüfung weitergibt.
Der zweite Punkt ist wesentlicher offener und auch nach heutigem Forschungsstand nur schwer einzuschätzen.

Folgende Voraussetzungen können definiert werden:

1. Echtzeitbedingung
2. Vernetzungsbedingung
3. Nutzen- und Wertsteigerung
4. Transparente, eindeutig interpretierbare und vollautomatische Entscheidungsfindung
5. Selbstlernend

Alle relevanten Daten müssen in Echtzeit verfügbar sein. Hierfür ist eine hochgradige Vernetzung erforderlich. Wesentliche Aspekte hierbei sind die Datenspeicherung, das Datenmanagement und die Verknüpfung der Daten, um Informationen schnell gewinnen zu können. Dabei darf die Verarbeitung der Daten nicht wesentlich langsamer als deren Auswertung sein. Die Algorithmen müssen den Wissensstand, respektive Datenbestand, dynamisch und unter Echtzeitanforderung verarbeiten und erweitern können.

Während der Analyse der Daten sollen Erkenntnisse gewonnen werden, die auf eine Vergrößerung des Nutzens zielen und Vielfalt der Fertigung erhöht. Getroffene Entscheidungen müssen, anders als heute in KI-Systemen üblich, möglichst transparent und eindeutig nachvollziehbar getroffen werden.
Ziel des Systems ist es vollautomatisiert Entscheidungen zu treffen, die der dritten Bedingung nicht zuwiderhandeln. Weiterhin soll das System durch selbstlernende Mechanismen mit der Historie an Daten und getroffenen Entscheidungen seine Qualität in der Entscheidungsfindung steigern.

Bis wir eine KI erschaffen können, die diese Punkte vollumfänglich erfüllt, setzen wir auf Hilfe bei der Analytik und Hilfe bei der Entscheidungsfindung. Ein weiterer Fokus liegt auf der Anbindung der Kommunikation außerhalb der Unternehmen aus den heterogenen Quellen an die Entscheidungsprozesse. Darin sehen wir eine der wesentlichen Stärken der Digitalisierung, dass erstmals die Möglichkeit besteht durch viele Informationen gebündelt schneller Entscheidungen finden zu können, welche Größen und Prozesse im aktuellen Marktumfeld die eigene Entwicklung beeinflussen und wie diese mit einbezogen werden.

Treffen der Spione und Zero-Day Skandale

Es klingt wie aus einem schlechten Spionagefilm und ist doch Realität. Vor zwei Jahren, so kam jetzt heraus, kamen Synergien zusammen, die so manchen Manager zum Träumen bewegen könnten: Ein PC wurde von einem NSA-Mitarbeiter genutzt, vom Russen ausspioniert und vom Israeli gemeldet. Was ist denn hier passiert? Der Wahnwitz der Cybersicherheit und warum diese so niemals funktionieren wird, ist bei den Geheimdiensten wohl zur Realität geworden. Rechtsfreie Räume sind wir ja schon genauso gewohnt, aber dieser Zufall hat dem ganzen ein kurioses Gesicht verliehen. Software, die zum Schaden anderer Nutzer geschrieben wurde, ist Malware – egal, wer der Urheber ist. Folgerichtig hatte damals auch der Antivirenscanner von Kaspersky Alarm geschlagen. Beabsichtigt war das wohl nicht. Russische Hacker hat das dann, wie auch immer geartet, auf die Spur gebracht und die haben sich den NSA Schadcode gegriffen – wahrscheinlich zur späteren Analyse. Beobachtet wurde das ganze von einem Cyberspion aus Israel, der es dann den Freunden bei der NSA gesteckt hat.

Was im bisher geschilderten Beispiel eine fast schon lustige Begebenheit darstellt, wird für echte Anwender zur Gefahr. Schutzlos einer Heerschar von Spionen/Hackern und Tools ausgesetzt, kommt aber nun noch eins oben drauf. Spätestens seit WannaCry sollte unsere Bundesregierung wissen, dass das Ausnutzen und Verschweigen von Zero-Day Lücken eine selten dämliche Angelegenheit ist. Trotzdem wird momentan debattiert und es sieht wie immer nicht gut aus für den Rechtsstaat und die Demokratie. Es ist ein Skandal, wie im  Namen von irgendwas Menschen der Gefahr durch Cyberattacken von welcher Quelle auch immer ausgesetzt werden. Das gefährdet den Standort Deutschland als die Hochburg für IT-Security Produkte. Man vertraut deutschen Produkten und entgegen einiger Laienkommentare bei diversen IT-Foren sind die Leute vom BSI auf einer Mission, um die IT-Sicherheit Stück für Stück zu gewährleisten. Beim letzten Treffen der ACS am 01.09. habe ich hautnah miterleben können, wie der Präsident des BSI an die Zuhörer appelliert hat, sich für die IT-Sicherheit stark zu machen und Deutschland zu einem Leuchtturm in Europa und der Welt zu machen. Zu uns sollen die Unternehmen kommen, wenn sie auf Sicherheit setzen wollen. Da würde es der Regierung gut zu Gesicht stehen, endlich die Vertrauenskultur zu fördern, die offensichtlich als Auftrag an das BSI gegeben wurde. Alles andere wäre ein Skandal.

Lernprozesse rund um die IT-Security

Es vergeht im Moment mal wieder kein Tag, ohne das offenbar wird, dass IT-Sicherheit noch nicht als ganzheitliches Element verstanden wird. Wieder einmal steht die Frage im Raum, warum das Thema Sicherheit in Unternehmen eine große Baustelle zu sein scheint, wo wir doch gute Werkzeuge hätten, um viele Probleme abzufangen, bevor diese in der Presse zum Kopfschütteln führen. Nehmen wir doch Daimlers „neue Krise“ um WannaCry. Das Virus ist inzwischen alt genug, dass es als „Uraltproblem“ betrachtet werden kann. Es gibt die notwendigen Patches, selbst Virenscanner haben den Hashwert zum Schädling schon lange in der Datenbank und weitere Infrastrukturmaßnahmen könnten das Virus leicht am Vorwärtskommen hindern. Trotzdem konnte es wieder Fuß fassen.

Wem das aber vielleicht schon in der Seele weh getan hat, dass ein DAX Konzern nicht knallhart innovative Sicherheit und ganzheitliche Konzepte verfolgt, der konnte bei Deloitte sicherlich mehr als ein Haar in der Suppe finden. Offene Ports…. Offene Ports? Offene Ports!!! War es denn so schwer für die NASA die übliche Backdoor zu nehmen – oder hat wenigstens diese Leitungsverschlüsselung und einen Passwortzugang? Wer sein Brot & Butter Geschäft so schleifen lässt, wird in Zukunft am Markt einen schweren Zugang im Bereich IT-Security finden. Andererseits gibt es ja auch andere bekannte Unternehmen, die vergesslich in Sachen Qualität und Sicherheit sind. Bleibt nur die Erkenntnis der Woche frei nach Fefe: „Es ist unmoralisch schlechte Software zu verbreiten!“. Bleibt nur die Frage, ob es auch schlecht fürs Geschäft ist.

Willkommen @ resc-IT

Das GFFT-Netzwerk „IT-Governance und Projektmanagement“ hat erneut hochkarätigen Nachwuchs bekommen: Die resc-IT GmbH erweitert unser Portfolio um Lösungen rund um Krisenprävention und Krisenmanagement – Herzlich Willkommen!
Die resc-IT GMbH aus Greiling ist spezialisiert auf die Rettung von in Schieflage geratenen IT-Projekten sowie Krisenprävention. Unternehmer und Senior Projekt Manager Matthias Rauber kann auf über 20 Jahre Erfahrung in der IT-Branche zurückblicken. Vielfach waren es schwierige, krisenhafte Projekte, die er begleitete. Diese lösten einen ganz besonderen Reiz in ihm aus: das vermeintlich Unmögliche doch zu schaffen. Aus dem im Laufe der Zeit entstandenen Wissen zum Erkennen und Korrigieren von typischen Fehlermustern entwickelte Matthias Rauber sein spezielles Verfahren, das er und seine Mitarbeiter seit vielen Jahren für den Turnaround von Projekten einsetzen.

Datenpflege ist kritischer Erfolgsfaktor für Unternehmen – ZIM-Kooperationsprojekt will Machine Learning Verfahren zur fehlertoleranten automatischen Dublettenerkennung (Identity Resolution) entwickeln

Die Pflege von Kunden- und Interessentendatenbanken für Unternehmen und Institutionen künftig zu vereinfachen ist das Ziel eines gemeinsamen Forschungs- und Entwicklungsprojekts des Instituts für Angewandte Informatik (InfAI) e.V., Leipzig und der Uniserv GmbH, Pforzheim. Beide Partner sind Mitglied in dem bundesweiten GFFT-Kooperationsnetzwerk „Erfolgreiche IT-Großprojekte: Mit System zum Erfolg“.

Fehlertolerante automatische Dublettenerkennung ist Voraussetzung, damit Unternehmen zum Beispiel eine komplette 360°-Sicht auf Kunden und Interessenten herstellen oder personalisierte Kundeninteraktion auslösen können. Dies gilt auch für Analysen auf Haushaltsebene oder um einen Abgleich gegen Sperrlisten zur Betrugserkennung und Risikoabschätzung durchzuführen.

Im Bereich der Verwaltung großer Datenbestände von Kunden und Interessenten ist die Erstellung von Geschäftsregeln für die Erkennung von Duplikaten eine hoch komplexe Aufgabe. Denn es geht dabei nicht nur um doppelte oder mehrfach vorhandene Stammdaten, sondern oft auch um zugehörige Transaktionsdaten, die nicht über eindeutige Kundennummern, sondern über so genannte „weiche“ Identifikationskriterien wie Namen und Adressen, Telefonnummer, E-Mailadresse oder Social Login zugeordnet werden müssen. Diese Zuordnungen maschinell sicher durch zu führen, wird im Zeitalter der Digitalisierung immer wichtiger.

Dabei sind diese Geschäftsregeln nicht nur je Unternehmen und Institution unterschiedlich. Sie hängen auch erheblich von der jeweiligen Aufgabenstellung (wie beispielsweise Konsolidierung aller Finanz- und Versicherungsverträge in einem Haushalt oder Datenanreicherung für Marketing-Kampagnen) ab sowie auch von der Datenqualität, die je nach Erfassungsart (Webformular, Call-Center etc.) sehr unterschiedlich ist. Da sich Aufgaben und Anforderungen oft sehr kurzfristig ergeben bzw. ändern, muss die Erstellung eines neuen aufgabenspezifischen Regelwerks sehr schnell und möglichst durch die Fachabteilung direkt erfolgen können.

Mit Hilfe des Projekts KOBRA (Konfiguration von Business-Regeln für Anwender von Duplikaterken­nungssystemen) soll nun eine Lösung geschaffen werden, die die aufgaben- und unternehmensspeziellen Regeln durch Hinzufügen von positiven und negativen Beispielen der Nutzer immer besser an die spezifische Problemstellung anpasst. Dies geschieht durch eine neuartige Kombination unter­schiedlicher Verfahren des maschinellen Lernens mit einer Trainingsdatenselektion, Historisierung und Simulationsumgebung. Mittels dieser automatisierten Identitäts- und damit Duplikaterkennung kann die Datenqualität signifikant gesteigert werden.

„Das Projekt ermöglicht es uns, Knowhow aus langjähriger Forschungsarbeit in die Praxis übertragen zu können und gemeinsam weiter zu vertiefen. Wir freuen uns sehr auf die Zusammenarbeit mit Uniserv“, erläutert Professor Erhard Rahm, Leiter der Abteilung Datenbanken am InfAI.

Hervorgegangen ist das Projekt KOBRA aus dem ZIM-geförderten Kooperationsnetzwerk „Erfolgrei­che IT-Großprojekte: Mit System zum Erfolg“, welches von der GFFT Innovationsförderung GmbH be­trieben wird. Ziel des Netzwerks ist es, bestehende Methoden, Techniken und Werkzeuge, die für kleine und mittlere Projekte gut geeignet sind, systematisch auf ihre Eignung für IT-Großprojekte zu untersuchen, um dann die dort erkannten methodischen und technologischen Lücken zu schließen. So soll ein durchgehendes Gesamtkonzept zur erfolgreichen Durchführung großer IT-Projekte ge­schaffen werden.

„Wir freuen uns sehr auf die künftige Zusammenarbeit mit der GFFT und dem InfAI im Rahmen des Forschungsprojekts KOBRA. Das Projekt soll zeigen, wie Künstliche Intelligenz dabei helfen kann, die Ansprache von Unternehmen an ihre Kunden zu verbessern – und die Qualität von Kundendaten zu erhöhen. Die Ergebnisse des Projekts wollen wir nach Abschluss auch in unsere Lösung Uniserv Identity einfließen lassen“, erklärt Dr. Simone Braun, Business Development, Uniserv.

Das Projekt KOBRA wird für zwei Jahre im Rahmen des Zentralen Innovationsprogramms Mittelstand (ZIM) durch das Bundesministerium für Wirtschaft und Energie gefördert.