<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Künstliche Intelligenz | museum-digital: blog</title>
	<atom:link href="https://blog.museum-digital.org/de/tag/kuenstliche-intelligenz/feed/" rel="self" type="application/rss+xml" />
	<link>https://blog.museum-digital.org</link>
	<description>A blog on museum-digital and the broader digitization of museum work.</description>
	<lastBuildDate>Tue, 17 Mar 2026 00:21:34 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://blog.museum-digital.org/wp-content/uploads/2020/01/cropped-mdlogo-code-512px-32x32.png</url>
	<title>Künstliche Intelligenz | museum-digital: blog</title>
	<link>https://blog.museum-digital.org</link>
	<width>32</width>
	<height>32</height>
</image> 
<atom:link rel="search" type="application/opensearchdescription+xml" title="Search museum-digital: blog" href="https://blog.museum-digital.org/wp-json/opensearch/1.1/document" />	<item>
		<title>Folien: Die KI beschreibt mein Objekt? – Anwendungsszenarien und Ausblicke für die Museumsdokumentation in Zeiten von KI</title>
		<link>https://blog.museum-digital.org/de/2026/03/17/folien-die-ki-beschreibt-mein-objekt-anwendungsszenarien-und-ausblicke-fuer-die-museumsdokumentation-in-zeiten-von-ki/</link>
					<comments>https://blog.museum-digital.org/de/2026/03/17/folien-die-ki-beschreibt-mein-objekt-anwendungsszenarien-und-ausblicke-fuer-die-museumsdokumentation-in-zeiten-von-ki/#respond</comments>
		
		<dc:creator><![CDATA[Joshua Ramon Enslin]]></dc:creator>
		<pubDate>Tue, 17 Mar 2026 00:00:17 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[Präsentationen]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Large Language Models]]></category>
		<category><![CDATA[Sammlungsmanagement]]></category>
		<category><![CDATA[Vortrag]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/?p=4628</guid>

					<description><![CDATA[Mittlerweile ist der gleichnamige Vortrag aus dem Virtuelles DH-Kolloquium an der BBAW am 16.02.2026 lange vergangen. Dafür gibt es die Folien, die vielleicht einige nach wie vor interessieren könnten.]]></description>
										<content:encoded><![CDATA[
<p>Mittlerweile ist der gleichnamige Vortrag aus dem Virtuelles DH-Kolloquium an der BBAW am 16.02.2026 lange vergangen. Dafür gibt es die Folien, die vielleicht einige nach wie vor interessieren könnten.</p>



<h2 class="wp-block-heading">Abstract</h2>



<p>Spätestens mit dem Aufkommen und der Popularisierung von KI-Chatbots wie ChatGPT hat die Diskussion um die Möglichkeiten des Einsatzes von Künstlicher Intelligenz auch die Museumsdokumentation erreicht.</p>



<p>In diesem Vortrag wird auf Basis eines generalisierten Lifecycles von Erschließungsdaten zu Museumsobjekten erst ein kurzer Überblick über bisherige Einsatzszenarien von KI mit dem Versuch einer Klassifikation präsentiert. Im Folgenden werden zwei im Rahmen der Initiative<br>museum-digital entwickelte Einsatzszenarien im Detail beleuchtet.</p>



<p>museum-digital (<a href="https://www.museum-digital.org/">https://www.museum-digital.org/</a>) wurde 2009 in Bitterfeld von Museen gegründet, um gemeinsam die Bestände der Museen im Netz zu präsentieren. Ausgehend von der Publikation erweiterten sich die Aktivitäten und Softwarelösungen bald in andere, verwandte digitale Arbeitsfelder von Museen, besonders das Sammlungsmanagement und die Erstellung digitaler Ausstellungen. Heute arbeiten ca. 1700 Museen primär aus Deutschland, Ungarn und der Ukraine mit museum-digital, von denen bisher 1231 Objekte über die Plattformen veröffentlicht haben.</p>



<p>Die beiden Werkzeuge im Fokus des Vortrages sind Versuche, die&nbsp; Erschließungsarbeit der Museen weiter zu vereinfachen. Einerseits werden hierzu etwa bei Gemälden, Graphiken und Fotographien abgebildete Elemente automatisch erkannt und zur Verschlagwortung auf Basis des entsprechenden kontrollierten Vokabulars von museum-digital vorgeschlagen. Zentrale Fragen waren bei der Implementation einerseits die Anbindung bisher nicht auf die Arbeit mit Normdaten und kontrollierten Vokabularen ausgericheter Modelle an ein kontrolliertes Vokabular und die Frage, wie eine Klassifikation im Rahmen einer finanziell und in Bezug auf die zur Verfügung stehenden (Server-)Hardware stark eingeschränkten Community-Initiative umgesetzt werden können.</p>



<p>Das zweite hervorgehobene Werkzeug synthetisiert auf Basis bestehender, strukturierter Objektmetadaten Prosa-Objektbeschreibungen, die sowohl im Sinne der Barrierefreiheit als auch für die Auffindbarkeit der Objekte (besonders durch Suchmaschinen) bei museum-digital für die Publikation von Objekten verpflichtend vorausgesetzt werden. Hierzu werden die strukturierten Objektdaten auf Anfrage der Nutzenden in eine Prompt-Vorlage eingefügt. Auf Basis der Objektart werden ausgewählte, vorher als gut bewertete Beispielobjektbeschreibungen möglichst ähnlicher Objekte mitgegeben (Few-Shotting). Um Nutzende zu einer tatsächlichen kritischen Auseinandersetzung der generierten Texte zu bewegen, werden je drei, von verschiedenen Large Language Models generierte, Vorschläge generiert und angezeigt. Ist einer ausgewählt, werden Nutzende aufgefordert, den Text zu redigieren. Das Tool entstand experimentell im Rahmen einer Kooperation des Freien Hochstifts, des Zuse-Instituts Berlin, digiS‘ und von museum-digital. In diesem Kontext wurde für das Werkzeug ein engmaschiges Logging der generierten Daten und der Nutzerinteraktion implementiert, das tiefere Auswertungen zulässt – etwa, inwiefern die Texte tatsächlich redigiert wurden, und ob bestimmte Modelle, Textlängen, etc. von den Nutzenden präferiert wurden.</p>



<p>Der Vortrag schließt mit einem Ausblick auf die weiteren Potentiale und die durch die durch dank KI veränderte Umgebung aufgekommenen neuen Herausforderungen in der (digitalen) Erschließung und Publikation von Museumsbeständen.</p>



<h2 class="wp-block-heading">Folien</h2>


<iframe class="embed-pdf-viewer" src="https://files.museum-digital.org/de/Praesentationen/2026-02-16_Die-KI-beschreibt-mein-Objekt_BBAW_JRE.pdf" height="600" width="600" title=""></iframe>


<ul class="wp-block-list">
<li>Als <a href="https://files.museum-digital.org/de/Praesentationen/2026-02-16_Die-KI-beschreibt-mein-Objekt_BBAW_JRE.odp">ODP-Datei</a></li>
</ul>



<div class="wp-block-cgb-cc-by message-body" style="background-color:white;color:black"><img decoding="async" src="https://blog.museum-digital.org/wp-content/plugins/creative-commons/includes/images/by.png" alt="CC" width="88" height="31"/><p><span class="cc-cgb-name">This content</span> is licensed under a <a href="https://creativecommons.org/licenses/by/4.0/">Creative Commons Attribution 4.0 International license.</a> <span class="cc-cgb-text"></span></p></div>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.museum-digital.org/de/2026/03/17/folien-die-ki-beschreibt-mein-objekt-anwendungsszenarien-und-ausblicke-fuer-die-museumsdokumentation-in-zeiten-von-ki/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-thumbnail><url>https://blog.museum-digital.org/wp-content/uploads/2026/03/mpv-shot0014.png</url><width>600</width><height>455</height></post-thumbnail>	</item>
		<item>
		<title>Automatische Erkennung von abgebildeten Elementen</title>
		<link>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/</link>
					<comments>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/#respond</comments>
		
		<dc:creator><![CDATA[Joshua Ramon Enslin]]></dc:creator>
		<pubDate>Wed, 27 Aug 2025 12:34:08 +0000</pubDate>
				<category><![CDATA[musdb]]></category>
		<category><![CDATA[Technik/Design]]></category>
		<category><![CDATA[Bilderkennung]]></category>
		<category><![CDATA[Kunstgeschichte]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Neue Features]]></category>
		<category><![CDATA[Objektbearbeitung (musdb)]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/?p=4530</guid>

					<description><![CDATA[Im Januar 2021 haben wir im Rahmen von museum-digital unser erstes KI-gestütztes Feature veröffentlicht. Entweder über eine eigene Seite oder eingebettet in den Objekt-Upload-Workflow wurden Bilder klassifiziert und in Tags für Schlagworte umgewandelt. Seit ca. einem Jahr toure ich durch die Lande, und erkläre, warum dieser Anlauf falsch lag. Mit einem neuen KI-Feature zur Bildklassifikation, <a href="https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[
<p>Im Januar 2021 haben wir im Rahmen von museum-digital unser <a href="https://blog.museum-digital.org/de/2021/11/03/inventarisierungsdaten-vom-sofa-aus-verbessern-verbesserungsvorschlaege-und-bilderkennung/">erstes KI-gestütztes Feature</a> veröffentlicht. Entweder über eine eigene Seite oder eingebettet in den Objekt-Upload-Workflow wurden Bilder klassifiziert und in Tags für Schlagworte umgewandelt. Seit ca. einem Jahr toure ich durch die Lande, und erkläre, warum dieser Anlauf falsch lag.</p>



<p>Mit einem neuen KI-Feature zur Bildklassifikation, das ab Donnerstag Nacht bereit stehen wird, versuchen wir aus unseren Fehlern zu lernen. Bevor dieses vorgestellt wird aber seien die damaligen Fehler besprochen.</p>



<h2 class="wp-block-heading">Bildklassifikation, Versuch 1</h2>



<p>Im ursprünglichen Anlauf zur Bildklassifikation wurden alle Abbildungen zu allen Objekten entweder beim Upload oder über eine gezielt dazu eingerichtete Seite klassifiziert.</p>



<p>Die Abbildungen wurden dabei an ein KI-Modell übergeben, und seine (englischen) Ausgaben mit dem Schlagwort-Katalog von museum-digital abgeglichen. Die gefundenen Schlagworte wurden dann als Schlagwort-Vorschläge angeboten.</p>



<h3 class="wp-block-heading">KI braucht passende Hardware</h3>



<p>KI-Tools arbeiten am besten auf Grafikkarten. Das, was ein herkömmlicher Webserver nicht hat, ist eine Grafikkarte. Also entschieden wir uns für den offensichtlich klugen Weg: Mithilfe von Tensorflow.js wurden die Berechnungen auf die Geräte der gerade eingebenenden User ausgelagert.</p>



<p>Gut: Die Berechnungen liefen nicht mehr auf der ungeeigneten Server-Hardware. Schlecht: Wer einen durchschnittlichen PC in einem kommunalen Museum kennt, sollte wissen, dass er vielleicht eine Grafikkarte haben mag &#8211; aber dann höchstwahrscheinlich auch nur eine Office-Grafikkarte aus dem untersten Preissegment. Und vor allem 2021 waren die meisten Laptops nicht besser für KI-Anwendungen geeignet, als die Server-Hardware von museum-digital. Ergo: Die Berechnungen zur Bildklassifikation dauerte lange(!).</p>



<h3 class="wp-block-heading">Workflows</h3>



<p>Schlimmer noch: Die Berechnungen zur Bildklassifikation waren <em>blockierend</em>. D.h., dass man in dem Browserfenster, in dem die Berechnungen ausgeführt wurden, nicht weiter arbeiten konnte. Dadurch, dass die Bildklassifikation in den Objekt-Ersterfassungs-Workflow eingebaut war, verlangsamte sie diesen deutlich.</p>



<p>In der Reflexion lässt sich feststellen, dass, solange keine wirklich gute Hardware zur Verfügung steht, KI-Anwendungen zu Anfang oder zu Ende des Erschließungsprozesses und von diesem getrennt / im Hintergrund eingesetzt werden sollten. Zu Anfang der Erschließung, wenn nur die Inventarnummer und hoffentlich ein Bild vorliegen, kann z.B. Bilderkennung nützlich sein, um Eingabehilfen und Vorschläge zu generieren. Die erratische Natur von KI &#8211; meistens richtig, mal falsch, und bei jedem Durchlauf unterschiedlich &#8211; spielt somit keine Rolle, weil es sich nur um später von Menschen nachbearbeitete, akzeptierte oder abgelehnte Vorschläge handelt.</p>



<p>Zu Ende des Erschließungsprozesses kann KI sinnvoll eingesetzt werden, um einerseits auf Basis der vorliegenden Daten zusätzliche Datenfelder zu befüllen (<a href="https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/">KI-generierte Objektbeschreibungen</a> mit Zwischenspeicherung) oder zusätzliche Funktionen, die naturgemäß schwammigen Kategorien folgen anzubieten (<a href="https://blog.museum-digital.org/2025/03/06/sort-by-beauty/">Sortierung nach Ästhetik von Thumbnails</a>).</p>



<p>Der Einsatz von KI-Tools in Echtzeit, wie er im ursprünglichen Bildklassifikations-Tool erwartet wurde, kann mit entsprechend guter Hardware sinnvoll sein. Die im Juni vorgestellte, in Zusammenarbeit mit dem Zuse-Institut und digiS testweise bereitgestellte, Erstellung von Objektbeschreibung auf Basis bestehender Metadaten ist ein gutes Beispiel. Im Zuse-Institut kommt hierzu eine Nvidia GH-200 zum Einsatz. Der Preis der Hardware alleine übersteigt das Jahresbudget vieler Museen.</p>



<h3 class="wp-block-heading">Die Wahl des Modells sei weise getroffen</h3>



<p>Weil eben die Hardware unzureichend war und wir eine Bildklassifikation in Echtzeit ermöglichen wollten, waren wir bei der ursprünglichen Bildklassifikation auf kleine, sehr effiziente Modelle angewiesen. Nach einigem Suchen endeten wir bei <a href="https://en.m.wikipedia.org/wiki/MobileNet">MobileNet</a>.</p>



<p>MobileNet kommt zwar prinzipiell aus dem richtigen Bereich (Objekterkennung), hat aber offensichtlich sehr anders gelagerte Trainingsdaten. Straßenschilder und Tiere werden auch bei der vorliegenden, mittlerweile veralteren Version recht stabil erkannt. Anderes eher nicht.</p>



<p>Dass ein Modell mit einen der Verschlagwortung im Museumsbereich näheren ursprünglichen Einsatzgebiet bessere Ergebnisse geben sollte, bedarf eigentlich keiner größeren Erläuterung.</p>



<h3 class="wp-block-heading">Für welche Objekte eignet sich Bildklassifikation?</h3>



<p>Die ursprüngliche Bilderkennung hat also technische und organisatorische Probleme. Aber sie hat inhaltliche: Bilderkennung erkennt eben Bilder. Objekte sind Objekte. Eine annähernd deckungsgleiche Übereinstimmung zwischen Bild und Objekt kann vorliegen, muss aber nicht. Meist lässt sich das an Objektarten festmachen: Beschreibt man den Scan einer frühen Fotografie oder eines Ölgemäldes, beschreibt man gleichzeitig das Objekt. Beschreibt man das Foto eines Schranks, hat man wahrscheinlich deutlich weniger über das Objekt selbst und dafür mehr über die Umstände des Fotografierens gesagt.</p>



<p>Auch eine relativ naive, nicht spezifisch auf Objektabbildungen nachtrainierte Bilderkennung kann im Museumsbereich also sinnvoll sein, ihr Nutzen ist aber Kontextabhängig.</p>



<h2 class="wp-block-heading">Der zweite Anlauf: Bilderkennung für abgebildete Elemente</h2>



<p>Ab Donnerstag wird nun eine neue Funktion zur automatisierten Bilderkennung zur Verfügung stehen, die vor dem Hintergrund der Fehler des ersten Anlaufs spezifischer agiert und (hoffentlich) sinnvoller in bestehende Workflows integrierbar ist. Ziel ist die Erkennung von Bildinhalten spezifisch für solche Objekte, bei denen Bild und Objekt annähernd deckungsgleich sind.</p>



<p>Da dies eben nicht alle Objekte sind, muss das Feature spezifisch aktiviert werden. Dies ist über eine neue Einstellung auf Ebene von Sammlungen möglich.</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1024x576.png" alt="Screenshot der Sammlungs-Bearbeitungsseite in musdb. In der Linken Seitenspalte gibt es eine neue Option &quot;Ikonographische Bilderkennung aktivieren&quot;." class="wp-image-4532" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie.png 1920w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">In der linken Seitenspalte gibt es eine neue Option &#8222;Ikonographische Bilderkennung aktivieren&#8220;.</figcaption></figure>



<p>Wird ein neuer Objektdatensatz erstellt, der einer Sammlung mit aktivierter Bilderkennung zugeordnet ist, und zu dem ein Bild vorliegt, so wird dieses später automatisiert mit Vorschlägen aus der Bilderkennung angereichert.</p>



<p>Hierzu wird die reguläre Suchfunktion genutzt, um relevante Objekte und ihre primären Abbildungen zu identifizieren. Diese werden auf lokale Entwicklungs-Maschinen (PC mit Grafikkarte &#8211; aber aktuellen, besseren Consumer-Modellen) heruntergeladen und dort ausgewertet. Die so generierten Schlagworte werden auf den Schlagwort-Katalog gemappt und zurück zum Server geschickt.</p>



<p>Ist das einmal geschehen, erscheinen sie als Liste von Checkboxen in der rechten Seitenspalte des Schlagwort-Overlays.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1024x576.png" alt="Screenshot des Verschlawortungs-Overlays der Objekt-Bearbeitungsseite in musdb. Rechts sind Vorschläge für wahrscheinlich Abgebildetes zu finden, die über die Checkboxen akzeptiert oder abgelehnt werden können." class="wp-image-4533" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI.png 1920w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Über die Seitenspalte können die Vorschläge akzeptiert oder abgelehnt werden. Akzeptierte Vorschläge werden direkt korrekt als abgebildete Schlagworte verknüpft.</figcaption></figure>



<h3 class="wp-block-heading">Auswahl des Modells</h3>



<p>Dadurch, dass homogenere und stärkere Hardware zur Verfügung steht, können auch größere Modelle eingesetzt werden. Für das neue Feature kommt dabei Joycaption zum Einsatz. Dieses stammt aus dem Umfeld der Open-Source-Bildgenerierung und wurde gezielt für das Beschreiben von Bildern erstellt. Es unterstützt dabei sowohl Prosa- als auch schlagwortartige Beschreibungen.</p>



<p>Ein wichtiger Vorteil des Modells ist, dass es unzensiert ist, während kommerzielle Modelle bei möglicherweise problematischen Inhalten zunehmend eingeschränkt sind. So werden zuverlässig auch z.B. Aktzeichnungen erkannt und beschrieben.</p>



<h3 class="wp-block-heading">Schlagworte</h3>



<p>Joycaption verschlagwortet teils spezifischer als wir das im Rahmen von museum-digital getan hätten. &#8222;Schwarzes T-Shirt&#8220; wäre etwa bisher nicht als Schlagwort zugelassen gewesen, ist aber im Sinne der Beschreibung visueller Elemente sinnvoll zuzulassen. &#8222;Schwarzes T-Shirt mit einem Ärmel&#8220; wäre allerdings sehr spezifisch. Um die Ausgaben des Modells mit dem Schlagwortkatalog zusammenzubringen haben wir also für ca. 20000 Objekte Beschriftungen erstellt und die daraus resultierenden ca. 6000 Schlagworte auf die bestehenden Vokabulare gemappt.</p>



<p>Wo es bisher keine Entsprechung gab (und der Begriff nicht grundsätzlich unerwünscht ist [&#8222;Ohne Menschen&#8220;]), wurde ein neues Schlagwort angelegt. Gerade bei Begriffen wie dem &#8222;schwarzen T-Shirt&#8220; sind die Begriffe denkbar einfach zu definieren: Ein T-Shirt, das Schwarz gefärbt ist. Entsprechend wurden die so neu eingerichteten Schlagworte automatisiert mit durch das LLM Gemma3 generierte Beschreibungen und deutsche Übersetzungen angereichert, die derzeit gesichtet und bereinigt werden. In diesem Arbeitsschritt werden auch überspezifische Begriffe wie &#8222;Schwarzes T-Shirt mit einem Ärmel&#8220; mit unspezifischeren Begriffen (&#8222;schwarzes T-Shirt&#8220;) zusammengeführt, sodass diese unspezifischeren Begriffe stabiler erkannt werden.</p>



<h3 class="wp-block-heading">Workflows</h3>



<p>Durch die nachgelagerte Arbeitsweise &#8211; erst Bildupload, dann warten, dann Verschlagwortung- macht der Einsatz der neuen Funktion besonders Sinn, wenn man institutionell einen arbeitsteiligen Workflow hat. Werden Objekte in einem Arbeitsgang von Inventarnummer bis Publikation erfasst, bietet das Tool wahrscheinlich wenig Mehrwert.</p>



<h3 class="wp-block-heading">API: Wer kann berechnen?</h3>



<p>Alle für die Bildklassifikation genutzten Abfragen auf dem Server sind, ebenso wie die Schnittstelle zum Eintragen der Ergebnisse der Klassifikation, auch über die API von musdb verfügbar.</p>



<p>Derzeit werden die API-Abfragen über die administrative Kommandozeile durchgeführt &#8211; eine Übersetzung hin zu einer Durchführung mithilfe der Webschnittstelle wäre aber ein leichtes und ist in der bestehenden Implementation schon mitgedacht. Hiermit könnten einzelne Museen die Berechnungen spezifisch für ihre eigenen Objekte durchführen und zeitlich unabhängiger agieren. Bei Interesse: Einfach schreiben. Der Aufwand hielte sich wie gesagt in Grenzen.</p>



<div class="wp-block-cgb-cc-by message-body" style="background-color:white;color:black"><img loading="lazy" decoding="async" src="https://blog.museum-digital.org/wp-content/plugins/creative-commons/includes/images/by.png" alt="CC" width="88" height="31"/><p><span class="cc-cgb-name">This content</span> is licensed under a <a href="https://creativecommons.org/licenses/by/4.0/">Creative Commons Attribution 4.0 International license.</a> <span class="cc-cgb-text"></span></p></div>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-thumbnail><url>https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI.png</url><width>600</width><height>338</height></post-thumbnail>	</item>
		<item>
		<title>Stand der Entwicklung, Juni &#038; Juli 2025</title>
		<link>https://blog.museum-digital.org/de/2025/08/21/stand-der-entwicklung-juni-juli-2025/</link>
					<comments>https://blog.museum-digital.org/de/2025/08/21/stand-der-entwicklung-juni-juli-2025/#respond</comments>
		
		<dc:creator><![CDATA[Joshua Ramon Enslin]]></dc:creator>
		<pubDate>Thu, 21 Aug 2025 12:05:39 +0000</pubDate>
				<category><![CDATA[Ausgabe]]></category>
		<category><![CDATA[Importer]]></category>
		<category><![CDATA[musdb]]></category>
		<category><![CDATA[Technik/Design]]></category>
		<category><![CDATA[Kleine Verbesserungen]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Neue Features]]></category>
		<category><![CDATA[Objektsuche (Ausgabe)]]></category>
		<category><![CDATA[Objektsuche (musdb)]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/?p=4510</guid>

					<description><![CDATA[Aktuelle Entwicklungen im Juni und Juli 2025.]]></description>
										<content:encoded><![CDATA[
<p>Juni und besonders Juli waren mal wieder langsam wirkende Monate in der Entwicklung von museum-digital.</p>



<p>Die allgemeine Entwicklung dieses Jahr deutet auf weniger kleinere Entwicklungen in den Kernbereichen, aber dafür größeren / aufwendigeren einzelnen neuen Features. Siehe etwa die <a href="https://blog.museum-digital.org/de/2025/01/13/versionierung-transfer-zwischen-datenfeldern/">Versionierung</a> in musdb aus dem Januar, das Tool zur <a href="https://blog.museum-digital.org/de/2025/03/08/das-importieren-automatisieren/">Import-Automatisierung</a> im März (andere nennen es Hotfolder), die <a href="https://blog.museum-digital.org/2025/03/06/sort-by-beauty/">Sortierung nach ästhetischem Score</a> im öffentlichen Bereich, ebenfalls im März, oder die Funktion zur <a href="https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/">KI-gestützten Generierung von Objektbeschreibungen</a> im Juni. Diese Tendenz setzt sich erst einmal fort.</p>



<h2 class="wp-block-heading">Juli</h2>



<h3 class="wp-block-heading"><a href="https://de.about.museum-digital.org/software/frontend/">Frontend</a></h3>



<ul class="wp-block-list">
<li><a href="https://blog.museum-digital.org/de/2025/07/13/hindi-2/">Übersetzung nach Hindi</a> und <a href="https://blog.museum-digital.org/de/2025/07/02/%e0%b0%a4%e0%b1%86%e0%b0%b2%e0%b1%81%e0%b0%97%e0%b1%81/">Telugu</a></li>



<li>Untergruppierung von Schlagworten, falls mehr als 10 gesetzt sind<br><em>Die Beziehung in zwischen einem Objekt und seinen Schlagworten kann in musdb klassifiziert und spezifiziert werden. Mögliche Beziehungs-Typen sind etwa &#8222;Objektart&#8220;, &#8222;Material&#8220;, &#8222;Technik&#8220;, und &#8222;Abgebildetes&#8220;. Gerade bei &#8222;Abgebildetes&#8220; kann, bei entsprechenden Objekten und entsprechend ausführlicher Erfassung, eine hohe Menge von Schlagworten verknüpft werden. Um die Übersichtlichkeit zu wahren, werden die Schlagworte auf einer Objektseite nach ihrem Beziehungs-Typ gruppiert, sobald mehr als zehn Schlagworte mit dem Objekt verknüpft sind. </em>  <br></li>
</ul>



<h3 class="wp-block-heading"><a href="https://de.about.museum-digital.org/software/musdb/">musdb</a></h3>



<h4 class="wp-block-heading">Neue Features</h4>



<ul class="wp-block-list">
<li>Export-Option für LIDO, wie es vom <a href="https://ccc.deutsche-digitale-bibliothek.de/">Koloniale Kontexte-Portal der Deutschen Digitalen Bibliothek</a> erwartet wird</li>
</ul>



<h4 class="wp-block-heading">Verbesserungen &amp; Änderungen</h4>



<ul class="wp-block-list">
<li>Mindestlänge für Volltextsuch-Begriffe sind jetzt in der Benutzeroberfläche (Suche verfeinern) sichtbar<br><em>Volltext-Suchbegriffe in musdb müssen, damit der Suchserver nicht überlastet wird, mindestens zwei Zeichen lang sein. Bisher wurden Suchparameter mit kürzeren &#8222;Suchbegriffen&#8220; schlicht ignoriert. Seit Juni ist ein Abschicken einer entsprechenden Abfrage über die erweiterte Suche nicht mehr möglich &#8211; dass zwei Zeichen das Mindestmaß sind, wird schon im Suchdialog kommuniziert.</em>  </li>



<li>Rezeptionsgeschichte: Angaben für Position in Quelle können jetzt bis 40 Zeichen lang sein</li>



<li>Transkriptionen
<ul class="wp-block-list">
<li>können jetzt 4000000 Zeichen lang sein</li>



<li>Neue Felder: Notiz, Status, Zielsetzung</li>
</ul>
</li>



<li></li>
</ul>



<h4 class="wp-block-heading">Bugfixes</h4>



<ul class="wp-block-list">
<li>Fehler beim Stapelweisen verstecken von Feldern vom Reiter Zusatz korrigiert</li>
</ul>



<h2 class="wp-block-heading">Juni</h2>



<h3 class="wp-block-heading"><a href="https://de.about.museum-digital.org/software/frontend/">Frontend</a></h3>



<ul class="wp-block-list">
<li>Performance-Verbesserungen
<ul class="wp-block-list">
<li>Objekt-Suche kann ohne Verbindung zu Such-Server arbeiten (falls keine Volltextsuche durchgeführt werden soll)</li>



<li>Suche nach Zeit und Zeit vor/nach ignoriert Zeit vor/nach, falls Zeitbegriff spezifischer ist</li>
</ul>
</li>



<li>Verbesserungen beim Löschen von PDF-Dateien</li>



<li>Übersetzung: <a href="https://blog.museum-digital.org/de/2025/06/23/tamil/">Tamil</a></li>
</ul>



<h3 class="wp-block-heading"><a href="https://de.about.museum-digital.org/software/musdb/">musdb</a></h3>



<h4 class="wp-block-heading">Neue Features</h4>



<ul class="wp-block-list">
<li>Empfänger für Deakzession kann aus dem Adressbuch heraus verknüpft werden</li>



<li><a href="https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/">KI-generierte Objektbeschreibungen auf Basis anderweitiger Metadaten</a></li>
</ul>



<h4 class="wp-block-heading">Verbesserungen</h4>



<ul class="wp-block-list">
<li>Objekt-Suche kann ohne Verbindung zu Such-Server arbeiten (falls keine Volltextsuche durchgeführt werden soll)</li>
</ul>



<h3 class="wp-block-heading"><a href="https://blog.museum-digital.org/de/category/technik-design/importer-de/">Importer</a></h3>



<ul class="wp-block-list">
<li>CSVXML-Parser ergänzt um
<ul class="wp-block-list">
<li>neue Ereignistypen</li>



<li>Markierungen</li>
</ul>
</li>



<li>Automatisch generierte Objektgruppe für alle Objekte aus einem Import: Beschreibung kann festgelegt werden (per Settings)</li>
</ul>



<h3 class="wp-block-heading"><a href="https://de.about.museum-digital.org/software/nodac/">nodac</a></h3>



<ul class="wp-block-list">
<li>Auswählbare (Navigations-)Sprachen sind jetzt auf die, in denen tatsächlich eine Übersetzung vorliegt, beschränkt </li>
</ul>



<div class="wp-block-cgb-cc-by message-body" style="background-color:white;color:black"><img loading="lazy" decoding="async" src="https://blog.museum-digital.org/wp-content/plugins/creative-commons/includes/images/by.png" alt="CC" width="88" height="31"/><p><span class="cc-cgb-name">This content</span> is licensed under a <a href="https://creativecommons.org/licenses/by/4.0/">Creative Commons Attribution 4.0 International license.</a> <span class="cc-cgb-text"></span></p></div>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.museum-digital.org/de/2025/08/21/stand-der-entwicklung-juni-juli-2025/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-thumbnail><url>https://blog.museum-digital.org/wp-content/uploads/2025/08/md-blog-palms.webp</url><width>600</width><height>411</height></post-thumbnail>	</item>
		<item>
		<title>KI &#038; Objektbeschreibungen</title>
		<link>https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/</link>
					<comments>https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/#respond</comments>
		
		<dc:creator><![CDATA[Joshua Ramon Enslin]]></dc:creator>
		<pubDate>Thu, 19 Jun 2025 13:00:00 +0000</pubDate>
				<category><![CDATA[Allgemein]]></category>
		<category><![CDATA[musdb]]></category>
		<category><![CDATA[Regional (Deutschland)]]></category>
		<category><![CDATA[Technik/Design]]></category>
		<category><![CDATA[Forschung]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Neue Features]]></category>
		<category><![CDATA[Objektbearbeitung (musdb)]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/?p=4400</guid>

					<description><![CDATA[Objektbeschreibungen sind ein großer Gewinn bei der Publikation von Objektdaten. Während Schlagworte, Ortsbezüge und Ereignisse einen detaillierten und uniformen Blick auf die Daten liefern, erlauben Objektbeschreibungen im Idealfall nuanciertere Beschreibungen von Details. Und vor allem bieten sie als Prosatexte eine oft einfacher verständliche, weniger &#8222;datenförmige&#8220; Sicht auf die Objekte, die sowohl im Sinne der Barrierefreiheit <a href="https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[
<p>Objektbeschreibungen sind ein großer Gewinn bei der Publikation von Objektdaten. Während Schlagworte, Ortsbezüge und Ereignisse einen detaillierten und uniformen Blick auf die Daten liefern, erlauben Objektbeschreibungen im Idealfall nuanciertere Beschreibungen von Details. Und vor allem bieten sie als Prosatexte eine oft einfacher verständliche, weniger &#8222;datenförmige&#8220; Sicht auf die Objekte, die sowohl im Sinne der Barrierefreiheit als auch für Suchmaschinen nützlich ist.</p>



<p>In der Praxis ist es vor allem letzterer Punkt, weshalb Objektbeschreibungen bei museum-digital verpflichtend anzugeben sind. Aber oft zeigt sich, dass die tatsächlich erfassten Beschreibungen hinter den &#8222;strukturiert&#8220; erfassten Metadaten zurückbleiben oder beide ausbaufähig sind. Dies ist oft eine Frage der Objektgattung und des fachlichen Hintergrunds. Gerade z.B. bei Druckgrafiken findet man oft eine grandiose Verschlagwortung mit minimalen Prosa-Beschreibungen. Andererseits leidet jeder mal unter einer Schreibblockade, und der ganze Museumsbereich unter einem Mangel von Arbeitskraft und Zeit.</p>



<p>Sind aber die sonstigen Objektdaten gut, und fehlt die Beschreibung &#8211; wie eben oft bei Grafiken &#8211; dann sollte sich doch eigentlich eine brauchbare mithilfe moderner KI formulieren lassen. &#8222;Sprache&#8220; steckt ja wortwörtlich schon im Namen &#8222;Large <em>Language</em> Model&#8220;. Und ist das Erstellen von Prosa-Beschreibungen einfacher, sollte doch eigentlich mehr Zeit und Motivation übrig sein, um die Verschlagwortung zu verbessern.</p>



<h2 class="wp-block-heading">KI-generierte Beschreibungstexte</h2>



<p>Mit diesen Gedanken startet heute ein Versuch und damit eine neue Funktion in musdb: Klickt man beim Bearbeiten eines Objektes in das Feld &#8222;Objektbeschreibung&#8220;, erscheint ein neu Marker &#8222;Automatisch formulieren&#8220;. Mit einem Klick darauf öffnet sich ein Overlay, in dem nach einer Wartezeit drei Vorschläge für Objektbeschreibungen angeboten werden, generiert auf Basis der bestehenden Objektmetadaten und mithilfe dreier verschiedener Sprachmodelle.</p>



<p>Mit einem ersten Klick auf einen der Vorschläge wird dieser in Gänze sichtbar. Mit einem zweiten Klick öffnet sich der Text in einer Bearbeitungsansicht. Ist er fertig bearbeitet, kann er mit einem Klick in die Datenbank übernommen werden.</p>



<p>Um überhaupt Vorschläge generieren zu können muss der Datensatz angelegt sein und mindestens ein Ereignis und ein Schlagwort haben, wobei die Ergebnisse mit mehr und besseren Metadaten entsprechend besser und zuverlässiger werden. Aufgrund der Abfragemethode sollte man zudem darauf achten, die Objektart als Schlagwort zu erfassen und entsprechend auszuzeichnen.</p>



<h2 class="wp-block-heading">Gedanken</h2>



<h3 class="wp-block-heading">Drei Vorschläge</h3>



<p>Eine gewichtige Befürchtung am Anfang der Überlegungen war, dass die Möglichkeit, Objektbeschreibungen maschinell generieren zu lassen mittelfristig zu Nachlässigkeit und dem Akzeptieren falsch generierter Beschreibungen führen könnte. Dabei ist KI zwangsläufig &#8211; bauartbedingt &#8211; unzuverlässig, und ihre Ergebnisse sollten immer (!) noch einmal gegengeprüft werden, bevor man sie veröffentlicht.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="507" src="https://blog.museum-digital.org/wp-content/uploads/2025/06/5_96_Objektbeschreibungen-Vorschlaege-Trigger-1024x507.webp" alt="" class="wp-image-4405" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/06/5_96_Objektbeschreibungen-Vorschlaege-Trigger-1024x507.webp 1024w, https://blog.museum-digital.org/wp-content/uploads/2025/06/5_96_Objektbeschreibungen-Vorschlaege-Trigger-300x148.webp 300w, https://blog.museum-digital.org/wp-content/uploads/2025/06/5_96_Objektbeschreibungen-Vorschlaege-Trigger.webp 1051w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></figure>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="587" height="516" src="https://blog.museum-digital.org/wp-content/uploads/2025/06/5_97_Objektbeschreibungen-Vorschlaege-Wartezeit.webp" alt="Während die Objektbeschreibungen generiert werden, erscheint ein Lade-Kreis." class="wp-image-4404" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/06/5_97_Objektbeschreibungen-Vorschlaege-Wartezeit.webp 587w, https://blog.museum-digital.org/wp-content/uploads/2025/06/5_97_Objektbeschreibungen-Vorschlaege-Wartezeit-300x264.webp 300w" sizes="auto, (max-width: 587px) 100vw, 587px" /></figure>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="744" height="688" src="https://blog.museum-digital.org/wp-content/uploads/2025/06/5_98_Objektbeschreibungen-Vorschlaege-generieren.webp" alt="" class="wp-image-4403" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/06/5_98_Objektbeschreibungen-Vorschlaege-generieren.webp 744w, https://blog.museum-digital.org/wp-content/uploads/2025/06/5_98_Objektbeschreibungen-Vorschlaege-generieren-300x277.webp 300w" sizes="auto, (max-width: 744px) 100vw, 744px" /><figcaption class="wp-element-caption">Vorschau der Vorschläge. Per Klicken lässt sich der Passendste auswählen.</figcaption></figure>



<p>Um dieser Befürchtung zu begegnen, werden nun eben drei alternative Vorschläge generiert. Um den passendsten zu finden, muss man erst einmal lesen. Das heißt, man muss sich mit den Vorschlägen auseinandersetzen, sodass eine Korrektur eventuell falscher oder verkürzter Stellen deutlich näher liegt.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="323" src="https://blog.museum-digital.org/wp-content/uploads/2025/06/5_99_Objektbeschreibungen-Vorschlaege-cachen-1024x323.webp" alt="Über die Objektübersicht lassen sich die Vorschläge stapelweise vorbereiten." class="wp-image-4402" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/06/5_99_Objektbeschreibungen-Vorschlaege-cachen-1024x323.webp 1024w, https://blog.museum-digital.org/wp-content/uploads/2025/06/5_99_Objektbeschreibungen-Vorschlaege-cachen-300x95.webp 300w, https://blog.museum-digital.org/wp-content/uploads/2025/06/5_99_Objektbeschreibungen-Vorschlaege-cachen.webp 1351w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /></figure>



<h2 class="wp-block-heading">Das Generieren dauert lange!</h2>



<p>Gerade, wenn man viele Objekte eingibt, dauert das Generieren der Vorschläge derzeit noch zu lange. Im Schnitt braucht die Generierung zwischen 10 und 11 Sekunden. Was bei einem Objekt akzeptabel sein mag, wird bei 50 eine echte Arbeitserschwernis. Andererseits sind die derzeit ausgewählten Modelle (Gemma 2, Gemma 3, Phi4) ein guter Kompromiss zwischen Geschwindigkeit und guten Vorschlägen. Kleinere, schnellere Modelle haben bei unsern Versuchen keine vergleichbar guten Resultate erzielt.</p>



<p>Um das Tool trotzdem auch bei vielen Objekten effektiv nutzen zu können, kann man die Vorschläge &#8222;vorgenerieren&#8220;. Dazu geht man in die Objektübersicht, klickt auf eine Objekt-Kachel, hält die Maustaste gedrückt und zieht den Mauszeiger zur Seite. Damit öffnet sich die <a href="https://blog.museum-digital.org/de/2020/01/19/objekte-auswaehlen-schnelle-stapelverarbeitung/">Stapelverarbeitung per Auswahl</a>. Hier gibt es nun eine neue Funktion, eben um Vorschläge zu generieren und zwischenzuspeichern.</p>



<p>Ein guter Workflow wäre also etwa, die Objekte des Tages erst einmal in ihren Metadaten gut zu erfassen, und dann in der Mittagspause die Vorschläge generieren zu lassen. Nach der Mittagspause können diese dann abgearbeitet werden.</p>



<h2 class="wp-block-heading">Kooperation: Hardware &amp; Auswertung</h2>



<p>Wie eingangs erwähnt handelt sich beim neuen Tool erst einmal um einen Versuch, der in Kooperation von digiS, dem Zuse-Institut Berlin und museum-digital entsteht. Durch diese Kooperation können die Beschreibungen auf der Hardware vertrauenswürdiger Partner (nicht OpenAI, sondern dem Zuse-Institut!) generiert werden.</p>



<p>Um die Potentiale und Nutzung des Einsatzes von KI in der Museumsdokumentation &#8211; und spezifisch des vorliegenden Tools &#8211; besser zu verstehen und das Tool weiterzuentwickeln, werden die Anfragen, die Vorschläge und die final abgeschickten Objektbeschreibungen gesammelt und in den nächsten Monaten systematisch ausgewertet (dabei werden Benutzerkennungen pseudonymisiert). Wir berichten!</p>



<div class="wp-block-cgb-cc-by message-body" style="background-color:white;color:black"><img loading="lazy" decoding="async" src="https://blog.museum-digital.org/wp-content/plugins/creative-commons/includes/images/by.png" alt="CC" width="88" height="31"/><p><span class="cc-cgb-name">This content</span> is licensed under a <a href="https://creativecommons.org/licenses/by/4.0/">Creative Commons Attribution 4.0 International license.</a> <span class="cc-cgb-text"></span></p></div>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-thumbnail><url>https://blog.museum-digital.org/wp-content/uploads/2025/06/Camera-Watercolor.webp</url><width>600</width><height>375</height></post-thumbnail>	</item>
		<item>
		<title>Inventarisierungsdaten vom Sofa aus Verbessern: Verbesserungsvorschläge und Bilderkennung</title>
		<link>https://blog.museum-digital.org/de/2021/11/03/inventarisierungsdaten-vom-sofa-aus-verbessern-verbesserungsvorschlaege-und-bilderkennung/</link>
		
		<dc:creator><![CDATA[Joshua Ramon Enslin]]></dc:creator>
		<pubDate>Wed, 03 Nov 2021 19:47:02 +0000</pubDate>
				<category><![CDATA[musdb]]></category>
		<category><![CDATA[Technik/Design]]></category>
		<category><![CDATA[Bilderkennung]]></category>
		<category><![CDATA[Controlled Vocabularies]]></category>
		<category><![CDATA[Datenqualität]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[New Features]]></category>
		<category><![CDATA[Verbesserungsvorschläge]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/?p=1752</guid>

					<description><![CDATA[Eine der großen Stärken von musdb, dem Eingabe- und Inventarisierungstool von museum-digital, ist seit langer Zeit seine Fähigkeit, auf Inkonsistenzen und unvollständige Eingaben hinzuweisen. Mit dem &#8222;PuQi&#8220; (Publikations-Qualitäts-Index) wird darauf hingewiesen, wo Datensätze vervollständigt werden können, wo ein Beschreibungstext für die Publikation zu lang oder zu kurz ist etc. Der &#8222;Plausi&#8220; weist auf potenziell unlogische <a href="https://blog.museum-digital.org/de/2021/11/03/inventarisierungsdaten-vom-sofa-aus-verbessern-verbesserungsvorschlaege-und-bilderkennung/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[
<p>Eine der großen Stärken von <a href="https://de.about.museum-digital.org/software/musdb">musdb, dem Eingabe- und Inventarisierungstool</a> von museum-digital, ist seit langer Zeit seine Fähigkeit, auf Inkonsistenzen und unvollständige Eingaben hinzuweisen. Mit dem <a href="https://files.museum-digital.org/en/Papers/Rohde-Enslin2015.pdf">&#8222;PuQi&#8220; (Publikations-Qualitäts-Index)</a> wird darauf hingewiesen, wo Datensätze vervollständigt werden können, wo ein Beschreibungstext für die Publikation zu lang oder zu kurz ist etc. Der &#8222;Plausi&#8220; weist auf potenziell unlogische Bezüge hin: Wurde ein Gemälde von Caspar David Friedrich (geboren 1774) gemalt, kann es nicht vor 1774 versendet worden sein. Beide Tools machen die Qualität der Datensätze &#8211; ein Stück weit &#8211; quantifizierbar und suchbar. Aber sie sind passiv &#8211; sie helfen Probleme zu identifizieren, die dann behoben werden können, aber sie helfen nicht bei der konkreten Lösung der Probleme.</p>



<p>Vorschläge machte musdb andererseits bisher vor allem auf Basis der zuletzt getätigten Eingaben: Soll etwa ein Objekt etwa verschlagwortet werden, werden in einer Seitenspalte die zuletzt benutzten Schlagworte angezeigt. Die Annahme, dass üblicherweise ähnliche Objekte nacheinander eingegeben werden, ist zwar naheliegend und meist richtig, aber es gibt viele weitere gute Optionen, um automatisch Vorschläge anzubieten.</p>



<p>Mit dem Entwicklungen der letzten beiden Monate sind wir in der Entwicklung einen großen paradigmatischen Schritt gegangen: Das System erkennt &#8211; bei einer gegebenen Liste von Fällen &#8211; behebbare Unvollständigkeiten, und schlägt zusammen mit der Nachricht direkt eine Lösung vor.</p>



<h2 class="wp-block-heading">Verbesserungsvorschläge</h2>



<p>Die Verbesserungsvorschläge für Objekte sind auf zweierlei Wegen erreichbar: Gibt es einen Vorschlag zu einem Objekt, das man gerade bearbeitet, erscheint der Hinweis darauf aber natürlich auch direkt beim Objekt (direkt neben der Überschrift). Spannender ist aber die allgemeine Liste für die schnelle Abarbeitung der Vorschläge, die jetzt über  die Navigation in musdb erreicht werden kann. </p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="494" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation-1024x494.png" alt="" class="wp-image-1757" srcset="https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation-1024x494.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation-300x145.png 300w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation-1536x741.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation.png 1878w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Oben rechts in der Navigation, mit dem Überfahren des Puzzlestück-Symbols, lässt sich die Liste der Verbesserungsvorschläge finden</figcaption></figure>



<p>Die so erreichte Liste ist optimiert, um ein Abarbeiten der Vorschläge so niedrigschwellig wie möglich zu ermöglichen: Jeder Vorschlag bildet eine Zeile und kann akzeptiert (und ausgeführt) oder verworfen werden. Um zu akzeptieren oder zu verwerfen, kann man entweder wie gehabt die entsprechenden Buttons klicken oder man wischt den Eintrag &#8211; grob analog zu z.B. Tinder &#8211; nach links (verwerfen) oder rechts (akzeptieren). Ist kein Touchscreen in Reichweite kann der oberste Eintrag der Liste über die Tasten &#8222;-&#8220; und &#8222;+&#8220; verworfen bzw. akzeptiert werden.</p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="800" height="600" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/verbesserung.gif" alt="" class="wp-image-1756"/><figcaption>Der Vorschlag wurde akzeptiert</figcaption></figure>



<h3 class="wp-block-heading">Und was schlägt musdb da vor?</h3>



<p>Verbesserungsvorschläge die so angeboten werden sollen müssen natürlich mindestens fast sicher sein, daher deckt die Funktion bisher nur eine kleine Anzahl an Fällen ab:</p>



<ul class="wp-block-list"><li><strong>Objektart als Schlagwort</strong><br>Das Feld für Objektarten ist bei museum-digital nicht kontrolliert, einerseits weil die Kategorisierung über Schlagworte breitere Suchmöglichkeiten bietet, andererseits weil viele Objekte bei museum-digital über Importe erfasst werden und etwaigen Vorgaben sicher widersprechen würden. Beim Neu-Eingeben ist die Benutzung von erkennbaren Objektarten aus der Schlagwortliste aber unbedingt sinnvoll &#8211; und genauso das Verschlagworten des Objektes mit seiner Objektart. Ist ein Objekt z.B. ein Stein, schlägt musdb vor, auch das Schlagwort &#8222;Stein&#8220; mit dem Objekt zu verknüpfen.</li><li><strong>Dargestellte Person in Selbstportraits</strong><br>Ein immer wieder auftretendes Problem, ist das die auf einem Gemälde oder einer Fotografie abgebildete Person nicht gesondert als &#8222;Dargestellte Person&#8220; erfasst wird. Dabei sind gerade diese Daten besonders interessant für interessante Weiterentwicklungen (von Visualisierungen bis zur automatierten Bilderkennung)!<br>Ein Sonderfall, in dem die Person implizit bekannt ist, sind Selbstportraits. Ist das Objekt ein Selbstporträt, und ist ein Maler oder Fotograf bekannt, schlägt musdb vor, dieselbe Person auch als dargestellte Person zu verknüpfen.</li><li><strong>Fehlende Sprach-Angaben bei Schriftwerken</strong><br>Ein recht neues Eingabefeld bei museum-digital, aber ein umso gebräuchlicheres im Umgang mit Texten ist die Sprache: &#8222;Ist der vorliegende Text in Deutsch oder Russisch verfasst?&#8220; Die Erfassung der Sprache macht bei allen Text-Objekten unbedingt Sinn, ist aber natürlich bei anderen Objekttypen kontraproduktiv. Eine Steinaxt hat &#8211; natürlich &#8211; keine Sprache.<br>Deshalb prüft musdb erst, ob ein Objekt verfasst wurde (also ein Ereignis &#8222;verfasst&#8220; verknüpft ist). Ist das der Fall, wird es sich wohl um ein Objekt mit Text handeln &#8211; und musdb kann die Sprache, in der der oder die Eingebende das Programm benutzt, als Sprache des Textes vorschlagen. Achtung: Dieser Vorschlagstyp ist der uneindeutigste der bisher vorhandenen.</li><li><strong>Präzisierung von Ereignisangaben</strong><br>Viele vorhandene Ereignisangaben lassen sich naheliegend auf Basis der Objektart spezifizieren: Wurde ein Gemälde &#8222;hergestellt&#8220;, oder wurde es nicht eher &#8222;gemalt&#8220;? Wurde ein Foto &#8222;hergestellt&#8220;? Wahrscheinlich wurde es eher &#8222;aufgenommen&#8220;.<br>Ist ein solcher Fall identifizierbar, schlägt musdb vor, die Angabe zu spezifizieren.<br></li></ul>



<h2 class="wp-block-heading">Vorgeschlagene Ereignistypen nach Objektart</h2>



<p>Mit verschiedenen Arten von Objekten passieren verschiedene Ereignisse. Gemälde werden gemalt, haben aber bestimmt nicht gelebt. Amoniten haben gelebt und wurden (wenn sie heute im Museum sind) zu irgendeinem Zeitpunkt gefunden, wurden aber bestimmt nicht verfasst.</p>



<p>Auch wenn das Feld &#8222;Objektart&#8220; bei museum-digital nicht kontrolliert wird, können wir doch mit vielen der gebenen Objektarten umgehen, indem wir die Hierarchie des Schlagwortkatalogs zu Hilfe nehmen. Ist als Objektart &#8222;Carte-de-Visite&#8220; angegeben, kann derselbe Begriff (auf Basis des gleichen Namens) im Schlagwortkatalog von museum-digital gefunden werden. Das Schlagwort &#8222;Carte-de-Visite&#8220; ist dem Begriff &#8222;Fotografie (Lichtbild)&#8220; untergeordnet &#8211; und so lässt sich aus den Daten schließen, dass es sich beim Objekt um eine Fotografie handelt.</p>



<p>Weil Fotografien nun eben vor allem &#8222;Aufgenommen&#8220; werden, für sie &#8222;Vorlagen erstellt&#8220; werden, und sie oft Orte oder Personen abbilden, lässt sich dieses Wissen nutzen, um die naheliegenden Ereignistypen ganz oben in der Liste der Ereignistypen (beim Anlgen eines neuen Ereignisses) vorzuschlagen. So sind sie leichter erreichbar und können hoffentlich zu einer schnelleren &#8211; aber genauso richtigen &#8211; Erfassung beitragen.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege-1024x576.png" alt="" class="wp-image-1758" srcset="https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege.png 1920w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Über der Liste erscheinen passende Ereignistypen zum Objekt. Hier &#8222;Aufgenommen&#8220;, &#8222;Vorlagenerstellung&#8220;, und &#8222;Wurde abgebildet (Akteur)&#8220; für eine Fotografie.</figcaption></figure>



<h2 class="wp-block-heading">Bilderkennung</h2>



<p>Nachdem die logischen Schlüsse, die sich aus dem Zusammenspiel von kontrollierten Vokabularen und Objektdaten schließen lassen nun wesentlich weitergehend auch in (Verbesserungs-)Vorschlägen niederschlagen, stellt sich die Frage, was der nächste Schritt für bessere Vorschläge an mehr Stellen ist. Naheliegend, weil zunehmend gut erforscht und zunehmend auch im alltäglichen Einsatz ist dabei Bilderkennung (bzw. Bild-Klassifikation). Und auch im Museumssektor ist sie hin und wieder pressewirksam für die Verschlagwortung von Bildern und Objekten eingesetzt worden. Warum dann also nicht bei museum-digital?</p>



<p>Um automatische Bilderkennung sinnvoll einsetzen zu können, müssen allerdings zuerst einmal Bilder vorhanden sein, die dann im Folgenden klassifiziert werden können. Deshalb ermöglicht die Objekt-Eingabeseite jetzt direkt das Hochladen von Bildern zum Objekt.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-1024x576.png" alt="" class="wp-image-1760" srcset="https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe.png 1920w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Unten auf der Objekt-Eingabeseite lassen sich jetzt optional direkt Objektabbildungen (als JPEG-Dateien) hochladen. Der normale Weg bleibt jedoch die traditionelle, nachgelagerte Upload- und Verknüpfungsfunktion für Objektabbildungen, wo auch PDFs, Videos, und externe Mediendateien hinzugefügt werden können.</figcaption></figure>



<p>Wird an dieser Stelle ein Objektbild angefügt, wird gleich ein Versuch Schlagworte vorzuschlagen, unternommen. Bisher sind die Resultate meist noch nicht gut. Aber so steht zumindest einmal die richtige Architektur, um Bilder, künstliche Intelligenz und ihr Zusammenwirken bei Erleichterung der Inventarisierung wesentlich mehr (oder überhaupt erst einmal) einzusetzen.</p>



<p>Bisher werden zur Bild-Klassifikation generische Modelle für browserbasierte Bilderkennung verwendet (<a href="https://github.com/tensorflow/tfjs-models">mobilenet und coco-ssd</a>). Alleine ein spezifisches Weiter-Training der Modelle auf Basis der bei museum-digital vorhandenen Daten sollte schon wesentliche Fortschritte mit sich bringen.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="361" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege-1024x361.png" alt="" class="wp-image-1759" srcset="https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege-1024x361.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege-300x106.png 300w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege-1536x541.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege.png 1782w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Ist eine Objektabbildung auf der Objekt-Eingabeseite zum Hochladen vorgemerkt, werden darauf basierende Schlagwortvorschläge unten rechts angeboten. Dass es sich bei einem Porträt um eine &#8222;Person&#8220; handeln könnte, wird schon einmal richtig erkannt. &#8222;Husarenaffe&#8220; und &#8222;Schutzumschlag&#8220; sind aber definitiv falsch.</figcaption></figure>



<div class="wp-block-cgb-cc-by message-body" style="background-color:white;color:black"><img loading="lazy" decoding="async" src="https://blog.museum-digital.org/wp-content/plugins/creative-commons/includes/images/by.png" alt="CC" width="88" height="31"/><p><span class="cc-cgb-name">This content</span> is licensed under a <a href="https://creativecommons.org/licenses/by/4.0/">Creative Commons Attribution 4.0 International license.</a> <span class="cc-cgb-text"></span></p></div>
]]></content:encoded>
					
		
		
		<post-thumbnail><url>https://blog.museum-digital.org/wp-content/uploads/2021/11/Screenshot_musdb_Verbesserungsvorschlaege_Swipe.jpg</url><width>600</width><height>456</height></post-thumbnail>	</item>
	</channel>
</rss>
