<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Bilderkennung | museum-digital: blog</title>
	<atom:link href="https://blog.museum-digital.org/de/tag/bilderkennung/feed/" rel="self" type="application/rss+xml" />
	<link>https://blog.museum-digital.org</link>
	<description>A blog on museum-digital and the broader digitization of museum work.</description>
	<lastBuildDate>Wed, 27 Aug 2025 12:34:09 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://blog.museum-digital.org/wp-content/uploads/2020/01/cropped-mdlogo-code-512px-32x32.png</url>
	<title>Bilderkennung | museum-digital: blog</title>
	<link>https://blog.museum-digital.org</link>
	<width>32</width>
	<height>32</height>
</image> 
<atom:link rel="search" type="application/opensearchdescription+xml" title="Search museum-digital: blog" href="https://blog.museum-digital.org/wp-json/opensearch/1.1/document" />	<item>
		<title>Automatische Erkennung von abgebildeten Elementen</title>
		<link>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/</link>
					<comments>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/#respond</comments>
		
		<dc:creator><![CDATA[Joshua Ramon Enslin]]></dc:creator>
		<pubDate>Wed, 27 Aug 2025 12:34:08 +0000</pubDate>
				<category><![CDATA[musdb]]></category>
		<category><![CDATA[Technik/Design]]></category>
		<category><![CDATA[Bilderkennung]]></category>
		<category><![CDATA[Kunstgeschichte]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Neue Features]]></category>
		<category><![CDATA[Objektbearbeitung (musdb)]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/?p=4530</guid>

					<description><![CDATA[Im Januar 2021 haben wir im Rahmen von museum-digital unser erstes KI-gestütztes Feature veröffentlicht. Entweder über eine eigene Seite oder eingebettet in den Objekt-Upload-Workflow wurden Bilder klassifiziert und in Tags für Schlagworte umgewandelt. Seit ca. einem Jahr toure ich durch die Lande, und erkläre, warum dieser Anlauf falsch lag. Mit einem neuen KI-Feature zur Bildklassifikation, <a href="https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[
<p>Im Januar 2021 haben wir im Rahmen von museum-digital unser <a href="https://blog.museum-digital.org/de/2021/11/03/inventarisierungsdaten-vom-sofa-aus-verbessern-verbesserungsvorschlaege-und-bilderkennung/">erstes KI-gestütztes Feature</a> veröffentlicht. Entweder über eine eigene Seite oder eingebettet in den Objekt-Upload-Workflow wurden Bilder klassifiziert und in Tags für Schlagworte umgewandelt. Seit ca. einem Jahr toure ich durch die Lande, und erkläre, warum dieser Anlauf falsch lag.</p>



<p>Mit einem neuen KI-Feature zur Bildklassifikation, das ab Donnerstag Nacht bereit stehen wird, versuchen wir aus unseren Fehlern zu lernen. Bevor dieses vorgestellt wird aber seien die damaligen Fehler besprochen.</p>



<h2 class="wp-block-heading">Bildklassifikation, Versuch 1</h2>



<p>Im ursprünglichen Anlauf zur Bildklassifikation wurden alle Abbildungen zu allen Objekten entweder beim Upload oder über eine gezielt dazu eingerichtete Seite klassifiziert.</p>



<p>Die Abbildungen wurden dabei an ein KI-Modell übergeben, und seine (englischen) Ausgaben mit dem Schlagwort-Katalog von museum-digital abgeglichen. Die gefundenen Schlagworte wurden dann als Schlagwort-Vorschläge angeboten.</p>



<h3 class="wp-block-heading">KI braucht passende Hardware</h3>



<p>KI-Tools arbeiten am besten auf Grafikkarten. Das, was ein herkömmlicher Webserver nicht hat, ist eine Grafikkarte. Also entschieden wir uns für den offensichtlich klugen Weg: Mithilfe von Tensorflow.js wurden die Berechnungen auf die Geräte der gerade eingebenenden User ausgelagert.</p>



<p>Gut: Die Berechnungen liefen nicht mehr auf der ungeeigneten Server-Hardware. Schlecht: Wer einen durchschnittlichen PC in einem kommunalen Museum kennt, sollte wissen, dass er vielleicht eine Grafikkarte haben mag &#8211; aber dann höchstwahrscheinlich auch nur eine Office-Grafikkarte aus dem untersten Preissegment. Und vor allem 2021 waren die meisten Laptops nicht besser für KI-Anwendungen geeignet, als die Server-Hardware von museum-digital. Ergo: Die Berechnungen zur Bildklassifikation dauerte lange(!).</p>



<h3 class="wp-block-heading">Workflows</h3>



<p>Schlimmer noch: Die Berechnungen zur Bildklassifikation waren <em>blockierend</em>. D.h., dass man in dem Browserfenster, in dem die Berechnungen ausgeführt wurden, nicht weiter arbeiten konnte. Dadurch, dass die Bildklassifikation in den Objekt-Ersterfassungs-Workflow eingebaut war, verlangsamte sie diesen deutlich.</p>



<p>In der Reflexion lässt sich feststellen, dass, solange keine wirklich gute Hardware zur Verfügung steht, KI-Anwendungen zu Anfang oder zu Ende des Erschließungsprozesses und von diesem getrennt / im Hintergrund eingesetzt werden sollten. Zu Anfang der Erschließung, wenn nur die Inventarnummer und hoffentlich ein Bild vorliegen, kann z.B. Bilderkennung nützlich sein, um Eingabehilfen und Vorschläge zu generieren. Die erratische Natur von KI &#8211; meistens richtig, mal falsch, und bei jedem Durchlauf unterschiedlich &#8211; spielt somit keine Rolle, weil es sich nur um später von Menschen nachbearbeitete, akzeptierte oder abgelehnte Vorschläge handelt.</p>



<p>Zu Ende des Erschließungsprozesses kann KI sinnvoll eingesetzt werden, um einerseits auf Basis der vorliegenden Daten zusätzliche Datenfelder zu befüllen (<a href="https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/">KI-generierte Objektbeschreibungen</a> mit Zwischenspeicherung) oder zusätzliche Funktionen, die naturgemäß schwammigen Kategorien folgen anzubieten (<a href="https://blog.museum-digital.org/2025/03/06/sort-by-beauty/">Sortierung nach Ästhetik von Thumbnails</a>).</p>



<p>Der Einsatz von KI-Tools in Echtzeit, wie er im ursprünglichen Bildklassifikations-Tool erwartet wurde, kann mit entsprechend guter Hardware sinnvoll sein. Die im Juni vorgestellte, in Zusammenarbeit mit dem Zuse-Institut und digiS testweise bereitgestellte, Erstellung von Objektbeschreibung auf Basis bestehender Metadaten ist ein gutes Beispiel. Im Zuse-Institut kommt hierzu eine Nvidia GH-200 zum Einsatz. Der Preis der Hardware alleine übersteigt das Jahresbudget vieler Museen.</p>



<h3 class="wp-block-heading">Die Wahl des Modells sei weise getroffen</h3>



<p>Weil eben die Hardware unzureichend war und wir eine Bildklassifikation in Echtzeit ermöglichen wollten, waren wir bei der ursprünglichen Bildklassifikation auf kleine, sehr effiziente Modelle angewiesen. Nach einigem Suchen endeten wir bei <a href="https://en.m.wikipedia.org/wiki/MobileNet">MobileNet</a>.</p>



<p>MobileNet kommt zwar prinzipiell aus dem richtigen Bereich (Objekterkennung), hat aber offensichtlich sehr anders gelagerte Trainingsdaten. Straßenschilder und Tiere werden auch bei der vorliegenden, mittlerweile veralteren Version recht stabil erkannt. Anderes eher nicht.</p>



<p>Dass ein Modell mit einen der Verschlagwortung im Museumsbereich näheren ursprünglichen Einsatzgebiet bessere Ergebnisse geben sollte, bedarf eigentlich keiner größeren Erläuterung.</p>



<h3 class="wp-block-heading">Für welche Objekte eignet sich Bildklassifikation?</h3>



<p>Die ursprüngliche Bilderkennung hat also technische und organisatorische Probleme. Aber sie hat inhaltliche: Bilderkennung erkennt eben Bilder. Objekte sind Objekte. Eine annähernd deckungsgleiche Übereinstimmung zwischen Bild und Objekt kann vorliegen, muss aber nicht. Meist lässt sich das an Objektarten festmachen: Beschreibt man den Scan einer frühen Fotografie oder eines Ölgemäldes, beschreibt man gleichzeitig das Objekt. Beschreibt man das Foto eines Schranks, hat man wahrscheinlich deutlich weniger über das Objekt selbst und dafür mehr über die Umstände des Fotografierens gesagt.</p>



<p>Auch eine relativ naive, nicht spezifisch auf Objektabbildungen nachtrainierte Bilderkennung kann im Museumsbereich also sinnvoll sein, ihr Nutzen ist aber Kontextabhängig.</p>



<h2 class="wp-block-heading">Der zweite Anlauf: Bilderkennung für abgebildete Elemente</h2>



<p>Ab Donnerstag wird nun eine neue Funktion zur automatisierten Bilderkennung zur Verfügung stehen, die vor dem Hintergrund der Fehler des ersten Anlaufs spezifischer agiert und (hoffentlich) sinnvoller in bestehende Workflows integrierbar ist. Ziel ist die Erkennung von Bildinhalten spezifisch für solche Objekte, bei denen Bild und Objekt annähernd deckungsgleich sind.</p>



<p>Da dies eben nicht alle Objekte sind, muss das Feature spezifisch aktiviert werden. Dies ist über eine neue Einstellung auf Ebene von Sammlungen möglich.</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1024x576.png" alt="Screenshot der Sammlungs-Bearbeitungsseite in musdb. In der Linken Seitenspalte gibt es eine neue Option &quot;Ikonographische Bilderkennung aktivieren&quot;." class="wp-image-4532" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie.png 1920w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">In der linken Seitenspalte gibt es eine neue Option &#8222;Ikonographische Bilderkennung aktivieren&#8220;.</figcaption></figure>



<p>Wird ein neuer Objektdatensatz erstellt, der einer Sammlung mit aktivierter Bilderkennung zugeordnet ist, und zu dem ein Bild vorliegt, so wird dieses später automatisiert mit Vorschlägen aus der Bilderkennung angereichert.</p>



<p>Hierzu wird die reguläre Suchfunktion genutzt, um relevante Objekte und ihre primären Abbildungen zu identifizieren. Diese werden auf lokale Entwicklungs-Maschinen (PC mit Grafikkarte &#8211; aber aktuellen, besseren Consumer-Modellen) heruntergeladen und dort ausgewertet. Die so generierten Schlagworte werden auf den Schlagwort-Katalog gemappt und zurück zum Server geschickt.</p>



<p>Ist das einmal geschehen, erscheinen sie als Liste von Checkboxen in der rechten Seitenspalte des Schlagwort-Overlays.</p>



<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1024x576.png" alt="Screenshot des Verschlawortungs-Overlays der Objekt-Bearbeitungsseite in musdb. Rechts sind Vorschläge für wahrscheinlich Abgebildetes zu finden, die über die Checkboxen akzeptiert oder abgelehnt werden können." class="wp-image-4533" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI.png 1920w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Über die Seitenspalte können die Vorschläge akzeptiert oder abgelehnt werden. Akzeptierte Vorschläge werden direkt korrekt als abgebildete Schlagworte verknüpft.</figcaption></figure>



<h3 class="wp-block-heading">Auswahl des Modells</h3>



<p>Dadurch, dass homogenere und stärkere Hardware zur Verfügung steht, können auch größere Modelle eingesetzt werden. Für das neue Feature kommt dabei Joycaption zum Einsatz. Dieses stammt aus dem Umfeld der Open-Source-Bildgenerierung und wurde gezielt für das Beschreiben von Bildern erstellt. Es unterstützt dabei sowohl Prosa- als auch schlagwortartige Beschreibungen.</p>



<p>Ein wichtiger Vorteil des Modells ist, dass es unzensiert ist, während kommerzielle Modelle bei möglicherweise problematischen Inhalten zunehmend eingeschränkt sind. So werden zuverlässig auch z.B. Aktzeichnungen erkannt und beschrieben.</p>



<h3 class="wp-block-heading">Schlagworte</h3>



<p>Joycaption verschlagwortet teils spezifischer als wir das im Rahmen von museum-digital getan hätten. &#8222;Schwarzes T-Shirt&#8220; wäre etwa bisher nicht als Schlagwort zugelassen gewesen, ist aber im Sinne der Beschreibung visueller Elemente sinnvoll zuzulassen. &#8222;Schwarzes T-Shirt mit einem Ärmel&#8220; wäre allerdings sehr spezifisch. Um die Ausgaben des Modells mit dem Schlagwortkatalog zusammenzubringen haben wir also für ca. 20000 Objekte Beschriftungen erstellt und die daraus resultierenden ca. 6000 Schlagworte auf die bestehenden Vokabulare gemappt.</p>



<p>Wo es bisher keine Entsprechung gab (und der Begriff nicht grundsätzlich unerwünscht ist [&#8222;Ohne Menschen&#8220;]), wurde ein neues Schlagwort angelegt. Gerade bei Begriffen wie dem &#8222;schwarzen T-Shirt&#8220; sind die Begriffe denkbar einfach zu definieren: Ein T-Shirt, das Schwarz gefärbt ist. Entsprechend wurden die so neu eingerichteten Schlagworte automatisiert mit durch das LLM Gemma3 generierte Beschreibungen und deutsche Übersetzungen angereichert, die derzeit gesichtet und bereinigt werden. In diesem Arbeitsschritt werden auch überspezifische Begriffe wie &#8222;Schwarzes T-Shirt mit einem Ärmel&#8220; mit unspezifischeren Begriffen (&#8222;schwarzes T-Shirt&#8220;) zusammengeführt, sodass diese unspezifischeren Begriffe stabiler erkannt werden.</p>



<h3 class="wp-block-heading">Workflows</h3>



<p>Durch die nachgelagerte Arbeitsweise &#8211; erst Bildupload, dann warten, dann Verschlagwortung- macht der Einsatz der neuen Funktion besonders Sinn, wenn man institutionell einen arbeitsteiligen Workflow hat. Werden Objekte in einem Arbeitsgang von Inventarnummer bis Publikation erfasst, bietet das Tool wahrscheinlich wenig Mehrwert.</p>



<h3 class="wp-block-heading">API: Wer kann berechnen?</h3>



<p>Alle für die Bildklassifikation genutzten Abfragen auf dem Server sind, ebenso wie die Schnittstelle zum Eintragen der Ergebnisse der Klassifikation, auch über die API von musdb verfügbar.</p>



<p>Derzeit werden die API-Abfragen über die administrative Kommandozeile durchgeführt &#8211; eine Übersetzung hin zu einer Durchführung mithilfe der Webschnittstelle wäre aber ein leichtes und ist in der bestehenden Implementation schon mitgedacht. Hiermit könnten einzelne Museen die Berechnungen spezifisch für ihre eigenen Objekte durchführen und zeitlich unabhängiger agieren. Bei Interesse: Einfach schreiben. Der Aufwand hielte sich wie gesagt in Grenzen.</p>



<div class="wp-block-cgb-cc-by message-body" style="background-color:white;color:black"><img decoding="async" src="https://blog.museum-digital.org/wp-content/plugins/creative-commons/includes/images/by.png" alt="CC" width="88" height="31"/><p><span class="cc-cgb-name">This content</span> is licensed under a <a href="https://creativecommons.org/licenses/by/4.0/">Creative Commons Attribution 4.0 International license.</a> <span class="cc-cgb-text"></span></p></div>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-thumbnail><url>https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI.png</url><width>600</width><height>338</height></post-thumbnail>	</item>
		<item>
		<title>Inventarisierungsdaten vom Sofa aus Verbessern: Verbesserungsvorschläge und Bilderkennung</title>
		<link>https://blog.museum-digital.org/de/2021/11/03/inventarisierungsdaten-vom-sofa-aus-verbessern-verbesserungsvorschlaege-und-bilderkennung/</link>
		
		<dc:creator><![CDATA[Joshua Ramon Enslin]]></dc:creator>
		<pubDate>Wed, 03 Nov 2021 19:47:02 +0000</pubDate>
				<category><![CDATA[musdb]]></category>
		<category><![CDATA[Technik/Design]]></category>
		<category><![CDATA[Bilderkennung]]></category>
		<category><![CDATA[Controlled Vocabularies]]></category>
		<category><![CDATA[Datenqualität]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[New Features]]></category>
		<category><![CDATA[Verbesserungsvorschläge]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/?p=1752</guid>

					<description><![CDATA[Eine der großen Stärken von musdb, dem Eingabe- und Inventarisierungstool von museum-digital, ist seit langer Zeit seine Fähigkeit, auf Inkonsistenzen und unvollständige Eingaben hinzuweisen. Mit dem &#8222;PuQi&#8220; (Publikations-Qualitäts-Index) wird darauf hingewiesen, wo Datensätze vervollständigt werden können, wo ein Beschreibungstext für die Publikation zu lang oder zu kurz ist etc. Der &#8222;Plausi&#8220; weist auf potenziell unlogische <a href="https://blog.museum-digital.org/de/2021/11/03/inventarisierungsdaten-vom-sofa-aus-verbessern-verbesserungsvorschlaege-und-bilderkennung/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[
<p>Eine der großen Stärken von <a href="https://de.about.museum-digital.org/software/musdb">musdb, dem Eingabe- und Inventarisierungstool</a> von museum-digital, ist seit langer Zeit seine Fähigkeit, auf Inkonsistenzen und unvollständige Eingaben hinzuweisen. Mit dem <a href="https://files.museum-digital.org/en/Papers/Rohde-Enslin2015.pdf">&#8222;PuQi&#8220; (Publikations-Qualitäts-Index)</a> wird darauf hingewiesen, wo Datensätze vervollständigt werden können, wo ein Beschreibungstext für die Publikation zu lang oder zu kurz ist etc. Der &#8222;Plausi&#8220; weist auf potenziell unlogische Bezüge hin: Wurde ein Gemälde von Caspar David Friedrich (geboren 1774) gemalt, kann es nicht vor 1774 versendet worden sein. Beide Tools machen die Qualität der Datensätze &#8211; ein Stück weit &#8211; quantifizierbar und suchbar. Aber sie sind passiv &#8211; sie helfen Probleme zu identifizieren, die dann behoben werden können, aber sie helfen nicht bei der konkreten Lösung der Probleme.</p>



<p>Vorschläge machte musdb andererseits bisher vor allem auf Basis der zuletzt getätigten Eingaben: Soll etwa ein Objekt etwa verschlagwortet werden, werden in einer Seitenspalte die zuletzt benutzten Schlagworte angezeigt. Die Annahme, dass üblicherweise ähnliche Objekte nacheinander eingegeben werden, ist zwar naheliegend und meist richtig, aber es gibt viele weitere gute Optionen, um automatisch Vorschläge anzubieten.</p>



<p>Mit dem Entwicklungen der letzten beiden Monate sind wir in der Entwicklung einen großen paradigmatischen Schritt gegangen: Das System erkennt &#8211; bei einer gegebenen Liste von Fällen &#8211; behebbare Unvollständigkeiten, und schlägt zusammen mit der Nachricht direkt eine Lösung vor.</p>



<h2 class="wp-block-heading">Verbesserungsvorschläge</h2>



<p>Die Verbesserungsvorschläge für Objekte sind auf zweierlei Wegen erreichbar: Gibt es einen Vorschlag zu einem Objekt, das man gerade bearbeitet, erscheint der Hinweis darauf aber natürlich auch direkt beim Objekt (direkt neben der Überschrift). Spannender ist aber die allgemeine Liste für die schnelle Abarbeitung der Vorschläge, die jetzt über  die Navigation in musdb erreicht werden kann. </p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="494" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation-1024x494.png" alt="" class="wp-image-1757" srcset="https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation-1024x494.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation-300x145.png 300w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation-1536x741.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Verbesserungsvorschlaege-navigation.png 1878w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Oben rechts in der Navigation, mit dem Überfahren des Puzzlestück-Symbols, lässt sich die Liste der Verbesserungsvorschläge finden</figcaption></figure>



<p>Die so erreichte Liste ist optimiert, um ein Abarbeiten der Vorschläge so niedrigschwellig wie möglich zu ermöglichen: Jeder Vorschlag bildet eine Zeile und kann akzeptiert (und ausgeführt) oder verworfen werden. Um zu akzeptieren oder zu verwerfen, kann man entweder wie gehabt die entsprechenden Buttons klicken oder man wischt den Eintrag &#8211; grob analog zu z.B. Tinder &#8211; nach links (verwerfen) oder rechts (akzeptieren). Ist kein Touchscreen in Reichweite kann der oberste Eintrag der Liste über die Tasten &#8222;-&#8220; und &#8222;+&#8220; verworfen bzw. akzeptiert werden.</p>



<figure class="wp-block-image size-full"><img loading="lazy" decoding="async" width="800" height="600" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/verbesserung.gif" alt="" class="wp-image-1756"/><figcaption>Der Vorschlag wurde akzeptiert</figcaption></figure>



<h3 class="wp-block-heading">Und was schlägt musdb da vor?</h3>



<p>Verbesserungsvorschläge die so angeboten werden sollen müssen natürlich mindestens fast sicher sein, daher deckt die Funktion bisher nur eine kleine Anzahl an Fällen ab:</p>



<ul class="wp-block-list"><li><strong>Objektart als Schlagwort</strong><br>Das Feld für Objektarten ist bei museum-digital nicht kontrolliert, einerseits weil die Kategorisierung über Schlagworte breitere Suchmöglichkeiten bietet, andererseits weil viele Objekte bei museum-digital über Importe erfasst werden und etwaigen Vorgaben sicher widersprechen würden. Beim Neu-Eingeben ist die Benutzung von erkennbaren Objektarten aus der Schlagwortliste aber unbedingt sinnvoll &#8211; und genauso das Verschlagworten des Objektes mit seiner Objektart. Ist ein Objekt z.B. ein Stein, schlägt musdb vor, auch das Schlagwort &#8222;Stein&#8220; mit dem Objekt zu verknüpfen.</li><li><strong>Dargestellte Person in Selbstportraits</strong><br>Ein immer wieder auftretendes Problem, ist das die auf einem Gemälde oder einer Fotografie abgebildete Person nicht gesondert als &#8222;Dargestellte Person&#8220; erfasst wird. Dabei sind gerade diese Daten besonders interessant für interessante Weiterentwicklungen (von Visualisierungen bis zur automatierten Bilderkennung)!<br>Ein Sonderfall, in dem die Person implizit bekannt ist, sind Selbstportraits. Ist das Objekt ein Selbstporträt, und ist ein Maler oder Fotograf bekannt, schlägt musdb vor, dieselbe Person auch als dargestellte Person zu verknüpfen.</li><li><strong>Fehlende Sprach-Angaben bei Schriftwerken</strong><br>Ein recht neues Eingabefeld bei museum-digital, aber ein umso gebräuchlicheres im Umgang mit Texten ist die Sprache: &#8222;Ist der vorliegende Text in Deutsch oder Russisch verfasst?&#8220; Die Erfassung der Sprache macht bei allen Text-Objekten unbedingt Sinn, ist aber natürlich bei anderen Objekttypen kontraproduktiv. Eine Steinaxt hat &#8211; natürlich &#8211; keine Sprache.<br>Deshalb prüft musdb erst, ob ein Objekt verfasst wurde (also ein Ereignis &#8222;verfasst&#8220; verknüpft ist). Ist das der Fall, wird es sich wohl um ein Objekt mit Text handeln &#8211; und musdb kann die Sprache, in der der oder die Eingebende das Programm benutzt, als Sprache des Textes vorschlagen. Achtung: Dieser Vorschlagstyp ist der uneindeutigste der bisher vorhandenen.</li><li><strong>Präzisierung von Ereignisangaben</strong><br>Viele vorhandene Ereignisangaben lassen sich naheliegend auf Basis der Objektart spezifizieren: Wurde ein Gemälde &#8222;hergestellt&#8220;, oder wurde es nicht eher &#8222;gemalt&#8220;? Wurde ein Foto &#8222;hergestellt&#8220;? Wahrscheinlich wurde es eher &#8222;aufgenommen&#8220;.<br>Ist ein solcher Fall identifizierbar, schlägt musdb vor, die Angabe zu spezifizieren.<br></li></ul>



<h2 class="wp-block-heading">Vorgeschlagene Ereignistypen nach Objektart</h2>



<p>Mit verschiedenen Arten von Objekten passieren verschiedene Ereignisse. Gemälde werden gemalt, haben aber bestimmt nicht gelebt. Amoniten haben gelebt und wurden (wenn sie heute im Museum sind) zu irgendeinem Zeitpunkt gefunden, wurden aber bestimmt nicht verfasst.</p>



<p>Auch wenn das Feld &#8222;Objektart&#8220; bei museum-digital nicht kontrolliert wird, können wir doch mit vielen der gebenen Objektarten umgehen, indem wir die Hierarchie des Schlagwortkatalogs zu Hilfe nehmen. Ist als Objektart &#8222;Carte-de-Visite&#8220; angegeben, kann derselbe Begriff (auf Basis des gleichen Namens) im Schlagwortkatalog von museum-digital gefunden werden. Das Schlagwort &#8222;Carte-de-Visite&#8220; ist dem Begriff &#8222;Fotografie (Lichtbild)&#8220; untergeordnet &#8211; und so lässt sich aus den Daten schließen, dass es sich beim Objekt um eine Fotografie handelt.</p>



<p>Weil Fotografien nun eben vor allem &#8222;Aufgenommen&#8220; werden, für sie &#8222;Vorlagen erstellt&#8220; werden, und sie oft Orte oder Personen abbilden, lässt sich dieses Wissen nutzen, um die naheliegenden Ereignistypen ganz oben in der Liste der Ereignistypen (beim Anlgen eines neuen Ereignisses) vorzuschlagen. So sind sie leichter erreichbar und können hoffentlich zu einer schnelleren &#8211; aber genauso richtigen &#8211; Erfassung beitragen.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege-1024x576.png" alt="" class="wp-image-1758" srcset="https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2021/11/Ereignistyp-Vorschlaege.png 1920w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Über der Liste erscheinen passende Ereignistypen zum Objekt. Hier &#8222;Aufgenommen&#8220;, &#8222;Vorlagenerstellung&#8220;, und &#8222;Wurde abgebildet (Akteur)&#8220; für eine Fotografie.</figcaption></figure>



<h2 class="wp-block-heading">Bilderkennung</h2>



<p>Nachdem die logischen Schlüsse, die sich aus dem Zusammenspiel von kontrollierten Vokabularen und Objektdaten schließen lassen nun wesentlich weitergehend auch in (Verbesserungs-)Vorschlägen niederschlagen, stellt sich die Frage, was der nächste Schritt für bessere Vorschläge an mehr Stellen ist. Naheliegend, weil zunehmend gut erforscht und zunehmend auch im alltäglichen Einsatz ist dabei Bilderkennung (bzw. Bild-Klassifikation). Und auch im Museumssektor ist sie hin und wieder pressewirksam für die Verschlagwortung von Bildern und Objekten eingesetzt worden. Warum dann also nicht bei museum-digital?</p>



<p>Um automatische Bilderkennung sinnvoll einsetzen zu können, müssen allerdings zuerst einmal Bilder vorhanden sein, die dann im Folgenden klassifiziert werden können. Deshalb ermöglicht die Objekt-Eingabeseite jetzt direkt das Hochladen von Bildern zum Objekt.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-1024x576.png" alt="" class="wp-image-1760" srcset="https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe.png 1920w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Unten auf der Objekt-Eingabeseite lassen sich jetzt optional direkt Objektabbildungen (als JPEG-Dateien) hochladen. Der normale Weg bleibt jedoch die traditionelle, nachgelagerte Upload- und Verknüpfungsfunktion für Objektabbildungen, wo auch PDFs, Videos, und externe Mediendateien hinzugefügt werden können.</figcaption></figure>



<p>Wird an dieser Stelle ein Objektbild angefügt, wird gleich ein Versuch Schlagworte vorzuschlagen, unternommen. Bisher sind die Resultate meist noch nicht gut. Aber so steht zumindest einmal die richtige Architektur, um Bilder, künstliche Intelligenz und ihr Zusammenwirken bei Erleichterung der Inventarisierung wesentlich mehr (oder überhaupt erst einmal) einzusetzen.</p>



<p>Bisher werden zur Bild-Klassifikation generische Modelle für browserbasierte Bilderkennung verwendet (<a href="https://github.com/tensorflow/tfjs-models">mobilenet und coco-ssd</a>). Alleine ein spezifisches Weiter-Training der Modelle auf Basis der bei museum-digital vorhandenen Daten sollte schon wesentliche Fortschritte mit sich bringen.</p>



<figure class="wp-block-image size-large"><img loading="lazy" decoding="async" width="1024" height="361" src="https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege-1024x361.png" alt="" class="wp-image-1759" srcset="https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege-1024x361.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege-300x106.png 300w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege-1536x541.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2021/11/202111-Objekteingabe-Tagvorschlaege.png 1782w" sizes="auto, (max-width: 1024px) 100vw, 1024px" /><figcaption>Ist eine Objektabbildung auf der Objekt-Eingabeseite zum Hochladen vorgemerkt, werden darauf basierende Schlagwortvorschläge unten rechts angeboten. Dass es sich bei einem Porträt um eine &#8222;Person&#8220; handeln könnte, wird schon einmal richtig erkannt. &#8222;Husarenaffe&#8220; und &#8222;Schutzumschlag&#8220; sind aber definitiv falsch.</figcaption></figure>



<div class="wp-block-cgb-cc-by message-body" style="background-color:white;color:black"><img loading="lazy" decoding="async" src="https://blog.museum-digital.org/wp-content/plugins/creative-commons/includes/images/by.png" alt="CC" width="88" height="31"/><p><span class="cc-cgb-name">This content</span> is licensed under a <a href="https://creativecommons.org/licenses/by/4.0/">Creative Commons Attribution 4.0 International license.</a> <span class="cc-cgb-text"></span></p></div>
]]></content:encoded>
					
		
		
		<post-thumbnail><url>https://blog.museum-digital.org/wp-content/uploads/2021/11/Screenshot_musdb_Verbesserungsvorschlaege_Swipe.jpg</url><width>600</width><height>456</height></post-thumbnail>	</item>
	</channel>
</rss>
