<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>Kunstgeschichte | museum-digital: blog</title>
	<atom:link href="https://blog.museum-digital.org/de/tag/kunstgeschichte/feed/" rel="self" type="application/rss+xml" />
	<link>https://blog.museum-digital.org</link>
	<description>A blog on museum-digital and the broader digitization of museum work.</description>
	<lastBuildDate>Wed, 27 Aug 2025 12:34:09 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	

<image>
	<url>https://blog.museum-digital.org/wp-content/uploads/2020/01/cropped-mdlogo-code-512px-32x32.png</url>
	<title>Kunstgeschichte | museum-digital: blog</title>
	<link>https://blog.museum-digital.org</link>
	<width>32</width>
	<height>32</height>
</image> 
<atom:link rel="search" type="application/opensearchdescription+xml" title="Search museum-digital: blog" href="https://blog.museum-digital.org/wp-json/opensearch/1.1/document" />	<item>
		<title>Automatische Erkennung von abgebildeten Elementen</title>
		<link>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/</link>
					<comments>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/#respond</comments>
		
		<dc:creator><![CDATA[Joshua Ramon Enslin]]></dc:creator>
		<pubDate>Wed, 27 Aug 2025 12:34:08 +0000</pubDate>
				<category><![CDATA[musdb]]></category>
		<category><![CDATA[Technik/Design]]></category>
		<category><![CDATA[Bilderkennung]]></category>
		<category><![CDATA[Kunstgeschichte]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Neue Features]]></category>
		<category><![CDATA[Objektbearbeitung (musdb)]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/?p=4530</guid>

					<description><![CDATA[Im Januar 2021 haben wir im Rahmen von museum-digital unser erstes KI-gestütztes Feature veröffentlicht. Entweder über eine eigene Seite oder eingebettet in den Objekt-Upload-Workflow wurden Bilder klassifiziert und in Tags für Schlagworte umgewandelt. Seit ca. einem Jahr toure ich durch die Lande, und erkläre, warum dieser Anlauf falsch lag. Mit einem neuen KI-Feature zur Bildklassifikation, <a href="https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[
<p>Im Januar 2021 haben wir im Rahmen von museum-digital unser <a href="https://blog.museum-digital.org/de/2021/11/03/inventarisierungsdaten-vom-sofa-aus-verbessern-verbesserungsvorschlaege-und-bilderkennung/">erstes KI-gestütztes Feature</a> veröffentlicht. Entweder über eine eigene Seite oder eingebettet in den Objekt-Upload-Workflow wurden Bilder klassifiziert und in Tags für Schlagworte umgewandelt. Seit ca. einem Jahr toure ich durch die Lande, und erkläre, warum dieser Anlauf falsch lag.</p>



<p>Mit einem neuen KI-Feature zur Bildklassifikation, das ab Donnerstag Nacht bereit stehen wird, versuchen wir aus unseren Fehlern zu lernen. Bevor dieses vorgestellt wird aber seien die damaligen Fehler besprochen.</p>



<h2 class="wp-block-heading">Bildklassifikation, Versuch 1</h2>



<p>Im ursprünglichen Anlauf zur Bildklassifikation wurden alle Abbildungen zu allen Objekten entweder beim Upload oder über eine gezielt dazu eingerichtete Seite klassifiziert.</p>



<p>Die Abbildungen wurden dabei an ein KI-Modell übergeben, und seine (englischen) Ausgaben mit dem Schlagwort-Katalog von museum-digital abgeglichen. Die gefundenen Schlagworte wurden dann als Schlagwort-Vorschläge angeboten.</p>



<h3 class="wp-block-heading">KI braucht passende Hardware</h3>



<p>KI-Tools arbeiten am besten auf Grafikkarten. Das, was ein herkömmlicher Webserver nicht hat, ist eine Grafikkarte. Also entschieden wir uns für den offensichtlich klugen Weg: Mithilfe von Tensorflow.js wurden die Berechnungen auf die Geräte der gerade eingebenenden User ausgelagert.</p>



<p>Gut: Die Berechnungen liefen nicht mehr auf der ungeeigneten Server-Hardware. Schlecht: Wer einen durchschnittlichen PC in einem kommunalen Museum kennt, sollte wissen, dass er vielleicht eine Grafikkarte haben mag &#8211; aber dann höchstwahrscheinlich auch nur eine Office-Grafikkarte aus dem untersten Preissegment. Und vor allem 2021 waren die meisten Laptops nicht besser für KI-Anwendungen geeignet, als die Server-Hardware von museum-digital. Ergo: Die Berechnungen zur Bildklassifikation dauerte lange(!).</p>



<h3 class="wp-block-heading">Workflows</h3>



<p>Schlimmer noch: Die Berechnungen zur Bildklassifikation waren <em>blockierend</em>. D.h., dass man in dem Browserfenster, in dem die Berechnungen ausgeführt wurden, nicht weiter arbeiten konnte. Dadurch, dass die Bildklassifikation in den Objekt-Ersterfassungs-Workflow eingebaut war, verlangsamte sie diesen deutlich.</p>



<p>In der Reflexion lässt sich feststellen, dass, solange keine wirklich gute Hardware zur Verfügung steht, KI-Anwendungen zu Anfang oder zu Ende des Erschließungsprozesses und von diesem getrennt / im Hintergrund eingesetzt werden sollten. Zu Anfang der Erschließung, wenn nur die Inventarnummer und hoffentlich ein Bild vorliegen, kann z.B. Bilderkennung nützlich sein, um Eingabehilfen und Vorschläge zu generieren. Die erratische Natur von KI &#8211; meistens richtig, mal falsch, und bei jedem Durchlauf unterschiedlich &#8211; spielt somit keine Rolle, weil es sich nur um später von Menschen nachbearbeitete, akzeptierte oder abgelehnte Vorschläge handelt.</p>



<p>Zu Ende des Erschließungsprozesses kann KI sinnvoll eingesetzt werden, um einerseits auf Basis der vorliegenden Daten zusätzliche Datenfelder zu befüllen (<a href="https://blog.museum-digital.org/de/2025/06/19/ki-objektbeschreibungen/">KI-generierte Objektbeschreibungen</a> mit Zwischenspeicherung) oder zusätzliche Funktionen, die naturgemäß schwammigen Kategorien folgen anzubieten (<a href="https://blog.museum-digital.org/2025/03/06/sort-by-beauty/">Sortierung nach Ästhetik von Thumbnails</a>).</p>



<p>Der Einsatz von KI-Tools in Echtzeit, wie er im ursprünglichen Bildklassifikations-Tool erwartet wurde, kann mit entsprechend guter Hardware sinnvoll sein. Die im Juni vorgestellte, in Zusammenarbeit mit dem Zuse-Institut und digiS testweise bereitgestellte, Erstellung von Objektbeschreibung auf Basis bestehender Metadaten ist ein gutes Beispiel. Im Zuse-Institut kommt hierzu eine Nvidia GH-200 zum Einsatz. Der Preis der Hardware alleine übersteigt das Jahresbudget vieler Museen.</p>



<h3 class="wp-block-heading">Die Wahl des Modells sei weise getroffen</h3>



<p>Weil eben die Hardware unzureichend war und wir eine Bildklassifikation in Echtzeit ermöglichen wollten, waren wir bei der ursprünglichen Bildklassifikation auf kleine, sehr effiziente Modelle angewiesen. Nach einigem Suchen endeten wir bei <a href="https://en.m.wikipedia.org/wiki/MobileNet">MobileNet</a>.</p>



<p>MobileNet kommt zwar prinzipiell aus dem richtigen Bereich (Objekterkennung), hat aber offensichtlich sehr anders gelagerte Trainingsdaten. Straßenschilder und Tiere werden auch bei der vorliegenden, mittlerweile veralteren Version recht stabil erkannt. Anderes eher nicht.</p>



<p>Dass ein Modell mit einen der Verschlagwortung im Museumsbereich näheren ursprünglichen Einsatzgebiet bessere Ergebnisse geben sollte, bedarf eigentlich keiner größeren Erläuterung.</p>



<h3 class="wp-block-heading">Für welche Objekte eignet sich Bildklassifikation?</h3>



<p>Die ursprüngliche Bilderkennung hat also technische und organisatorische Probleme. Aber sie hat inhaltliche: Bilderkennung erkennt eben Bilder. Objekte sind Objekte. Eine annähernd deckungsgleiche Übereinstimmung zwischen Bild und Objekt kann vorliegen, muss aber nicht. Meist lässt sich das an Objektarten festmachen: Beschreibt man den Scan einer frühen Fotografie oder eines Ölgemäldes, beschreibt man gleichzeitig das Objekt. Beschreibt man das Foto eines Schranks, hat man wahrscheinlich deutlich weniger über das Objekt selbst und dafür mehr über die Umstände des Fotografierens gesagt.</p>



<p>Auch eine relativ naive, nicht spezifisch auf Objektabbildungen nachtrainierte Bilderkennung kann im Museumsbereich also sinnvoll sein, ihr Nutzen ist aber Kontextabhängig.</p>



<h2 class="wp-block-heading">Der zweite Anlauf: Bilderkennung für abgebildete Elemente</h2>



<p>Ab Donnerstag wird nun eine neue Funktion zur automatisierten Bilderkennung zur Verfügung stehen, die vor dem Hintergrund der Fehler des ersten Anlaufs spezifischer agiert und (hoffentlich) sinnvoller in bestehende Workflows integrierbar ist. Ziel ist die Erkennung von Bildinhalten spezifisch für solche Objekte, bei denen Bild und Objekt annähernd deckungsgleich sind.</p>



<p>Da dies eben nicht alle Objekte sind, muss das Feature spezifisch aktiviert werden. Dies ist über eine neue Einstellung auf Ebene von Sammlungen möglich.</p>



<figure class="wp-block-image size-large"><img fetchpriority="high" decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1024x576.png" alt="Screenshot der Sammlungs-Bearbeitungsseite in musdb. In der Linken Seitenspalte gibt es eine neue Option &quot;Ikonographische Bilderkennung aktivieren&quot;." class="wp-image-4532" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Sammlung-Ikonographie.png 1920w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">In der linken Seitenspalte gibt es eine neue Option &#8222;Ikonographische Bilderkennung aktivieren&#8220;.</figcaption></figure>



<p>Wird ein neuer Objektdatensatz erstellt, der einer Sammlung mit aktivierter Bilderkennung zugeordnet ist, und zu dem ein Bild vorliegt, so wird dieses später automatisiert mit Vorschlägen aus der Bilderkennung angereichert.</p>



<p>Hierzu wird die reguläre Suchfunktion genutzt, um relevante Objekte und ihre primären Abbildungen zu identifizieren. Diese werden auf lokale Entwicklungs-Maschinen (PC mit Grafikkarte &#8211; aber aktuellen, besseren Consumer-Modellen) heruntergeladen und dort ausgewertet. Die so generierten Schlagworte werden auf den Schlagwort-Katalog gemappt und zurück zum Server geschickt.</p>



<p>Ist das einmal geschehen, erscheinen sie als Liste von Checkboxen in der rechten Seitenspalte des Schlagwort-Overlays.</p>



<figure class="wp-block-image size-large"><img decoding="async" width="1024" height="576" src="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1024x576.png" alt="Screenshot des Verschlawortungs-Overlays der Objekt-Bearbeitungsseite in musdb. Rechts sind Vorschläge für wahrscheinlich Abgebildetes zu finden, die über die Checkboxen akzeptiert oder abgelehnt werden können." class="wp-image-4533" srcset="https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1024x576.png 1024w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-300x169.png 300w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI-1536x864.png 1536w, https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI.png 1920w" sizes="(max-width: 1024px) 100vw, 1024px" /><figcaption class="wp-element-caption">Über die Seitenspalte können die Vorschläge akzeptiert oder abgelehnt werden. Akzeptierte Vorschläge werden direkt korrekt als abgebildete Schlagworte verknüpft.</figcaption></figure>



<h3 class="wp-block-heading">Auswahl des Modells</h3>



<p>Dadurch, dass homogenere und stärkere Hardware zur Verfügung steht, können auch größere Modelle eingesetzt werden. Für das neue Feature kommt dabei Joycaption zum Einsatz. Dieses stammt aus dem Umfeld der Open-Source-Bildgenerierung und wurde gezielt für das Beschreiben von Bildern erstellt. Es unterstützt dabei sowohl Prosa- als auch schlagwortartige Beschreibungen.</p>



<p>Ein wichtiger Vorteil des Modells ist, dass es unzensiert ist, während kommerzielle Modelle bei möglicherweise problematischen Inhalten zunehmend eingeschränkt sind. So werden zuverlässig auch z.B. Aktzeichnungen erkannt und beschrieben.</p>



<h3 class="wp-block-heading">Schlagworte</h3>



<p>Joycaption verschlagwortet teils spezifischer als wir das im Rahmen von museum-digital getan hätten. &#8222;Schwarzes T-Shirt&#8220; wäre etwa bisher nicht als Schlagwort zugelassen gewesen, ist aber im Sinne der Beschreibung visueller Elemente sinnvoll zuzulassen. &#8222;Schwarzes T-Shirt mit einem Ärmel&#8220; wäre allerdings sehr spezifisch. Um die Ausgaben des Modells mit dem Schlagwortkatalog zusammenzubringen haben wir also für ca. 20000 Objekte Beschriftungen erstellt und die daraus resultierenden ca. 6000 Schlagworte auf die bestehenden Vokabulare gemappt.</p>



<p>Wo es bisher keine Entsprechung gab (und der Begriff nicht grundsätzlich unerwünscht ist [&#8222;Ohne Menschen&#8220;]), wurde ein neues Schlagwort angelegt. Gerade bei Begriffen wie dem &#8222;schwarzen T-Shirt&#8220; sind die Begriffe denkbar einfach zu definieren: Ein T-Shirt, das Schwarz gefärbt ist. Entsprechend wurden die so neu eingerichteten Schlagworte automatisiert mit durch das LLM Gemma3 generierte Beschreibungen und deutsche Übersetzungen angereichert, die derzeit gesichtet und bereinigt werden. In diesem Arbeitsschritt werden auch überspezifische Begriffe wie &#8222;Schwarzes T-Shirt mit einem Ärmel&#8220; mit unspezifischeren Begriffen (&#8222;schwarzes T-Shirt&#8220;) zusammengeführt, sodass diese unspezifischeren Begriffe stabiler erkannt werden.</p>



<h3 class="wp-block-heading">Workflows</h3>



<p>Durch die nachgelagerte Arbeitsweise &#8211; erst Bildupload, dann warten, dann Verschlagwortung- macht der Einsatz der neuen Funktion besonders Sinn, wenn man institutionell einen arbeitsteiligen Workflow hat. Werden Objekte in einem Arbeitsgang von Inventarnummer bis Publikation erfasst, bietet das Tool wahrscheinlich wenig Mehrwert.</p>



<h3 class="wp-block-heading">API: Wer kann berechnen?</h3>



<p>Alle für die Bildklassifikation genutzten Abfragen auf dem Server sind, ebenso wie die Schnittstelle zum Eintragen der Ergebnisse der Klassifikation, auch über die API von musdb verfügbar.</p>



<p>Derzeit werden die API-Abfragen über die administrative Kommandozeile durchgeführt &#8211; eine Übersetzung hin zu einer Durchführung mithilfe der Webschnittstelle wäre aber ein leichtes und ist in der bestehenden Implementation schon mitgedacht. Hiermit könnten einzelne Museen die Berechnungen spezifisch für ihre eigenen Objekte durchführen und zeitlich unabhängiger agieren. Bei Interesse: Einfach schreiben. Der Aufwand hielte sich wie gesagt in Grenzen.</p>



<div class="wp-block-cgb-cc-by message-body" style="background-color:white;color:black"><img decoding="async" src="https://blog.museum-digital.org/wp-content/plugins/creative-commons/includes/images/by.png" alt="CC" width="88" height="31"/><p><span class="cc-cgb-name">This content</span> is licensed under a <a href="https://creativecommons.org/licenses/by/4.0/">Creative Commons Attribution 4.0 International license.</a> <span class="cc-cgb-text"></span></p></div>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.museum-digital.org/de/2025/08/27/automatische-erkennung-von-abgebildeten-elementen/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-thumbnail><url>https://blog.museum-digital.org/wp-content/uploads/2025/08/20250827_Screenshot-musdb-Objekt-Verschlagwortung-AI.png</url><width>600</width><height>338</height></post-thumbnail>	</item>
		<item>
		<title>Themenportal „Brandenburgisches Glas. Produktionsvielfalt vom 16. bis zum 18. Jahrhundert“</title>
		<link>https://blog.museum-digital.org/de/2019/06/05/themenportal-brandenburgisches-glas-produktionsvielfalt-vom-16-bis-zum-18-jahrhundert/</link>
		
		<dc:creator><![CDATA[AG Brandenburgische Museen digital]]></dc:creator>
		<pubDate>Wed, 05 Jun 2019 14:17:00 +0000</pubDate>
				<category><![CDATA[Brandenburg]]></category>
		<category><![CDATA[Themen]]></category>
		<category><![CDATA[Kunstgeschichte]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/2019/06/05/themenportal-brandenburgisches-glas-produktionsvielfalt-vom-16-bis-zum-18-jahrhundert/</guid>

					<description><![CDATA[Ein Projekt der Stiftung Preußische Schlösser und Gärten Berlin-Brandenburg (SPSG) mit dem Potsdam Museum – Forum für Kunst und Geschichte Ein Beitrag von Susanne Evers, Uta Kaiser und Verena Wasmuth Ende 2018 stellte die Stiftung Preußische Schlösser und Gärten Berlin-Brandenburg (SPSG) die ersten Ergebnisse eines Digitalisierungsprojekts zu brandenburgischem Glas in einem Themenportal auf www.museum-digital.de online. <a href="https://blog.museum-digital.org/de/2019/06/05/themenportal-brandenburgisches-glas-produktionsvielfalt-vom-16-bis-zum-18-jahrhundert/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[<p><!-- s9ymdb:889 --><img decoding="async" alt="" class="serendipity_image_left" src="/wp-content/uploads/2020/01/serendipity/XIII_720_Detail_1.serendipityThumb.jpg" style="width:333px" title="Deckelpokal mit dem Porträt König Friedrichs I. und dem Berliner Schloss (Detail), wohl Potsdam, Heinrich Friedrich Halter, um 1704-1710, Stiftung Preußische Schlösser und Gärten Berlin-Brandenburg, Foto: Wolfgang Pfauder"><strong>Ein Projekt der Stiftung Preußische Schlösser und Gärten Berlin-Brandenburg (SPSG) mit dem Potsdam Museum – Forum für Kunst und Geschichte</strong></p>
<p><em>Ein Beitrag von Susanne Evers, Uta Kaiser und Verena Wasmuth</em></p>
<p>Ende 2018 stellte die <a href="https://nat.museum-digital.de/index.php?t=institution&amp;instnr=536&amp;cachesLoaded=true" target="_blank" rel="noopener noreferrer">Stiftung Preußische Schlösser und Gärten Berlin-Brandenburg</a> (SPSG) die ersten Ergebnisse eines Digitalisierungsprojekts zu brandenburgischem Glas in einem <a href="https://themator.museum-digital.de/ausgabe/showthema.php?tid=690" target="_blank" rel="noopener noreferrer">Themenportal auf www.museum-digital.de</a> online. Das Projekt entstand als Idee nach der Ausstellung „Gläserne Welten. Potsdamer Glasmacher schneiden Geschichte“ im <a href="https://nat.museum-digital.de/index.php?t=institution&amp;instnr=230&amp;cachesLoaded=true" target="_blank" rel="noopener noreferrer">Potsdam Museum – Forum für Kunst und Geschichte</a> im Jahr 2017. Die Ausstellungsmacherinnen stellten damals fest, wie weit verstreut die gläsernen Zeugnisse aus den Anfängen der brandenburgischen Glasherstellung sind, dass viele von ihnen noch nicht publiziert und schwer zugänglich sind.<!-- s9ymdb:889 --></p>
<p><span id="more-323"></span></p>
<p><strong>Glas erzählt Kulturgeschichte </strong></p>
<p>Glas als Träger kulturgeschichtlicher Inhalte ist im öffentlichen Bewusstsein bislang kaum verankert. Durch eine wissenschaftliche Aufbereitung kann Glas jedoch bedeutende Informationen über Hofkultur, Migration von Handwerkern und Künstlern, Technik- sowie Wirtschaftsgeschichte liefern. Die Bestandsaufnahme über viele Sammlungen hinweg ermöglicht es, zeitgenössische Sortimente, prägnante Stilarten und individuelle Handschriften der Manufakturen und Meister zu dokumentieren. Nicht nur Luxusglasprodukte, sondern auch einfaches Gebrauchsglas, Bodenfunde und Glasmacherwerkzeuge sollen in das Themenportal eingepflegt werden. Neben ein oder mehreren Fotografien, die das Objekt in seiner Gänze erfassen, erhält jeder Datensatz einen ausführlichen beschreibenden Text, Literaturangaben und Verschlagwortungen. Auch detaillierte Kenntnisse über die Provenienz von Objekten, Publikationshistoriographie, Zustand, Restaurierungsmaßnahmen etc. lassen sich aufnehmen.</p>
<p><strong>Wachsende Kooperation</strong></p>
<p>Partner der Pilotphase waren das <a href="https://nat.museum-digital.de/index.php?t=institution&amp;instnr=561&amp;cachesLoaded=true" target="_blank" rel="noopener noreferrer">Glasmuseum Hentrich in Düsseldorf</a>, die <a href="https://nat.museum-digital.de/index.php?t=institution&amp;instnr=559&amp;cachesLoaded=true" target="_blank" rel="noopener noreferrer">Stiftung Stadtmuseum Berlin</a> und das <a href="https://nat.museum-digital.de/index.php?t=institution&amp;instnr=72&amp;cachesLoaded=true" target="_blank" rel="noopener noreferrer">Kunstmuseum Moritzburg in Halle (Saale)</a>. Über 230 Gläser sind bereits online. In den vergangenen Tagen erhielt die SPSG die erfreuliche Nachricht vom Ministerium für Wissenschaft, Forschung und Kultur des Landes Brandenburg (MWFK) über die gesicherte Finanzierung zur Erweiterung des Portals aus dem Förderprogramm für die Digitalisierung des kulturellen Erbes. In diesem Jahr werden neben der SPSG selbst acht weitere Museen aus dem Land Brandenburg ihre historischen Glasbestände online für die Öffentlichkeit sichtbar machen: Das Museum Neuruppin, das Museum Viadrina Frankfurt (Oder), das Museum in der Adler-Apotheke Eberwalde, die Städtischen Sammlungen Cottbus, das Museum Fürstenwalde, das Dominikanerkloster Prenzlau, das Museum für Stadtgeschichte Templin sowie die Glashütte Baruth.</p>
<p><strong>Impulse für die Forschung</strong></p>
<p>Die Datensätze zu den Glasobjekten werden sowohl auf den Museumsseiten auf www.museum-digital.de publiziert als auch im Themenportal „Brandenburgische Gläser. Produktionsvielfalt vom 16. bis zum und 18. Jahrhundert“. Hier erscheinen sie als Konvolute unter gliedernden Unterthemen, z. B. Deckelgefäße, Walzenkrüge, Fragmente, Rubingläser, Gläser mit Bildnissen, Mythologische Darstellungen, Scherzgefäße u. v. m. Erstmalig rücken damit die unterschiedlichsten Erzeugnisse brandenburgischer Glashütten von ihren heutigen Standorten wieder an einem Platz zusammen. Das Themenportal kann durch die Neudokumentation einen gültigen Querschnitt aller überlieferten brandenburgischen Glasprodukte der Epoche leisten und viele neue Impulse für die Forschung geben.</p>
<p><em>Der Blogbeitrag ist Teil der Reihe &#8222;Brandenburgische Museen digital&#8220; und wird redaktionell vom Museumsverband des Landes Brandenburg e.V. betreut. <a href="https://web.archive.org/web/20190430143519/https://www.museen-brandenburg.de/aktivitaeten/projekte/digitalisierung/" target="_blank" rel="noopener noreferrer">www.museen-brandenburg.de/aktivitaeten/projekte/digitalisierung/</a></em></p>
]]></content:encoded>
					
		
		
			</item>
		<item>
		<title>Katalog zur Ausstellung &#8222;Anton Graff &#8211; Meisterporträts der Aufklärung&#8220; online</title>
		<link>https://blog.museum-digital.org/de/2013/01/19/katalog-zur-ausstellung-anton-graff-meisterportraets-der-aufklaerung-online/</link>
					<comments>https://blog.museum-digital.org/de/2013/01/19/katalog-zur-ausstellung-anton-graff-meisterportraets-der-aufklaerung-online/#respond</comments>
		
		<dc:creator><![CDATA[Stefan Rohde-Enslin]]></dc:creator>
		<pubDate>Sat, 19 Jan 2013 14:07:32 +0000</pubDate>
				<category><![CDATA[Sachsen-Anhalt]]></category>
		<category><![CDATA[Themen]]></category>
		<category><![CDATA[Kunstgeschichte]]></category>
		<guid isPermaLink="false">https://blog.museum-digital.org/2013/01/19/katalog-zur-ausstellung-anton-graff-meisterportraets-der-aufklaerung-online/</guid>

					<description><![CDATA[Das Gleimhaus in Halberstadt zeigt vom 19.01.2013 bis zum 07.04.2013 die Ausstellung &#8222;Anton Graff (1736-1813). Meisterporträts der Aufklärung &#8211; Original, Kopie, Druck&#8220;. Die Wirkung der Porträts Graffs steht im Zentrum dieser Ausstellung, sie wurden vielfach kopiert und gedruckt. Die Ausstellung soll die Erinnerung an den Meister der Bildniskunst zu Zeiten der Aufklärung in seinem 200sten <a href="https://blog.museum-digital.org/de/2013/01/19/katalog-zur-ausstellung-anton-graff-meisterportraets-der-aufklaerung-online/" class="more-link">...</a>]]></description>
										<content:encoded><![CDATA[
<p>Das Gleimhaus in Halberstadt zeigt vom 19.01.2013 bis zum 07.04.2013 die Ausstellung &#8222;Anton Graff (1736-1813). Meisterporträts der Aufklärung &#8211; Original, Kopie, Druck&#8220;. Die Wirkung der Porträts Graffs steht im Zentrum dieser Ausstellung, sie wurden vielfach kopiert und gedruckt. Die Ausstellung soll die Erinnerung an den Meister der Bildniskunst zu Zeiten der Aufklärung in seinem 200sten Todesjahr wach rufen. Im Themenmodul von museum-digital wurde ein digitaler Katalog zu dieser Ausstellung erstellt, er ist sowohl <a href="https://themator.museum-digital.de/t/225/225">über die Hauptseite von museum-digital erreichbar</a>, als auch über den <a href="https://themator.museum-digital.de/t/225/225">Menupunkt &#8222;Themen&#8220; bei museum-digital:sachsen-anhalt</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://blog.museum-digital.org/de/2013/01/19/katalog-zur-ausstellung-anton-graff-meisterportraets-der-aufklaerung-online/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
			</item>
	</channel>
</rss>
