<?xml version="1.0" encoding="UTF-8"?><rss version="2.0"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:wfw="http://wellformedweb.org/CommentAPI/"
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:atom="http://www.w3.org/2005/Atom"
	xmlns:sy="http://purl.org/rss/1.0/modules/syndication/"
	xmlns:slash="http://purl.org/rss/1.0/modules/slash/"
	>

<channel>
	<title>k-Means Archive - CEOsBay</title>
	<atom:link href="https://ceosbay.com/tag/k-means/feed/" rel="self" type="application/rss+xml" />
	<link>https://ceosbay.com/tag/k-means/</link>
	<description>It&#039;s all about Tech</description>
	<lastBuildDate>Tue, 11 Feb 2025 07:03:26 +0000</lastBuildDate>
	<language>de</language>
	<sy:updatePeriod>
	hourly	</sy:updatePeriod>
	<sy:updateFrequency>
	1	</sy:updateFrequency>
	<generator>https://wordpress.org/?v=6.9.1</generator>

<image>
	<url>https://i0.wp.com/ceosbay.com/wp-content/uploads/2022/11/image.jpg?fit=32%2C32&#038;ssl=1</url>
	<title>k-Means Archive - CEOsBay</title>
	<link>https://ceosbay.com/tag/k-means/</link>
	<width>32</width>
	<height>32</height>
</image> 
<site xmlns="com-wordpress:feed-additions:1">211828771</site>	<item>
		<title>Clustering Algorithmen &#8211; Gruppieren von Daten</title>
		<link>https://ceosbay.com/2025/02/11/clustering-algorithmen-gruppieren-von-daten/</link>
					<comments>https://ceosbay.com/2025/02/11/clustering-algorithmen-gruppieren-von-daten/#respond</comments>
		
		<dc:creator><![CDATA[CEO]]></dc:creator>
		<pubDate>Tue, 11 Feb 2025 07:03:22 +0000</pubDate>
				<category><![CDATA[Agile]]></category>
		<category><![CDATA[Analytics]]></category>
		<category><![CDATA[API-Testing]]></category>
		<category><![CDATA[Big-Data]]></category>
		<category><![CDATA[Datenvisualisierung]]></category>
		<category><![CDATA[Datenwissenschaft]]></category>
		<category><![CDATA[Deep Learning]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[DevOps]]></category>
		<category><![CDATA[Entwicklung]]></category>
		<category><![CDATA[Explainable AI]]></category>
		<category><![CDATA[KI-Modelle]]></category>
		<category><![CDATA[KI-Testing]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<category><![CDATA[Natural Language Processing]]></category>
		<category><![CDATA[Neuronales Netzwerk]]></category>
		<category><![CDATA[Performance-Testing]]></category>
		<category><![CDATA[Programmieren]]></category>
		<category><![CDATA[Qualitätssicherung]]></category>
		<category><![CDATA[Robustheit]]></category>
		<category><![CDATA[Software]]></category>
		<category><![CDATA[Softwarequalität]]></category>
		<category><![CDATA[Spieleentwicklung]]></category>
		<category><![CDATA[Super AI]]></category>
		<category><![CDATA[Testautomatisierung]]></category>
		<category><![CDATA[Testing]]></category>
		<category><![CDATA[Testmanagement]]></category>
		<category><![CDATA[Teststrategie]]></category>
		<category><![CDATA[AI]]></category>
		<category><![CDATA[Algorithmus]]></category>
		<category><![CDATA[Anomalieerkennung]]></category>
		<category><![CDATA[automatische Gruppierung]]></category>
		<category><![CDATA[Big Data]]></category>
		<category><![CDATA[Clustering]]></category>
		<category><![CDATA[Data Mining]]></category>
		<category><![CDATA[Data Science]]></category>
		<category><![CDATA[Datenanalyse]]></category>
		<category><![CDATA[Datenstrategie]]></category>
		<category><![CDATA[Datenverarbeitung]]></category>
		<category><![CDATA[DBSCAN]]></category>
		<category><![CDATA[Dendrogramm]]></category>
		<category><![CDATA[EM-Algorithmus]]></category>
		<category><![CDATA[Feature Engineering]]></category>
		<category><![CDATA[Gaussian Mixture Model]]></category>
		<category><![CDATA[GMM]]></category>
		<category><![CDATA[hierarchisches Clustering]]></category>
		<category><![CDATA[High Performance Computing]]></category>
		<category><![CDATA[Informationsverarbeitung]]></category>
		<category><![CDATA[k-Means]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[maschinelles Lernen]]></category>
		<category><![CDATA[mathematische Optimierung]]></category>
		<category><![CDATA[Mustererkennung]]></category>
		<category><![CDATA[Musterklassifikation]]></category>
		<category><![CDATA[neuronale Netze]]></category>
		<category><![CDATA[Probabilistische Modelle]]></category>
		<category><![CDATA[Segmentierung]]></category>
		<category><![CDATA[Statistik]]></category>
		<category><![CDATA[Technologie-Trends]]></category>
		<category><![CDATA[Unüberwachtes Lernen]]></category>
		<guid isPermaLink="false">https://ceosbay.com/?p=4416</guid>

					<description><![CDATA[<p>Clustering ist eine der zentralen Techniken im Bereich des maschinellen Lernens und der Datenanalyse (An dieser Stelle ist evtl. auch mein Beitrag &#8222;Datenanalyse im Kontext der KI – Die perfekte Symbiose&#8220; erwähnenswert.). Es handelt sich &#8230;</p>
<p>Der Beitrag <a href="https://ceosbay.com/2025/02/11/clustering-algorithmen-gruppieren-von-daten/">Clustering Algorithmen &#8211; Gruppieren von Daten</a> erschien zuerst auf <a href="https://ceosbay.com">CEOsBay</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Clustering ist eine der zentralen Techniken im Bereich des <a href="https://ceosbay.com/2025/01/06/maschinelles-lernen-die-technologie-die-die-welt-veraendert/">maschinellen Lernens</a> und der Datenanalyse (An dieser Stelle ist evtl. auch mein Beitrag &#8222;<a href="https://ceosbay.com/2025/02/09/datenanalyse-im-kontext-der-ki-die-perfekte-symbiose/">Datenanalyse im Kontext der KI – Die perfekte Symbiose</a>&#8220; erwähnenswert.). Es handelt sich um ein <a href="https://ceosbay.com/2025/01/24/unueberwachtes-lernen-eine-schluesseltechnologie-der-ki/">unüberwachtes Lernverfahren</a>, das darauf abzielt, ähnliche Datenpunkte in Gruppen oder &#8222;Cluster&#8220; zusammenzufassen. Diese Technik wird in zahlreichen Anwendungen wie Marksegmentierung, Bildverarbeitung und biologischer Forschung eingesetzt. In diesem Artikel werfen wir einen genaueren Blick auf die bekanntesten Clustering-Algorithmen und ihre Anwendungsgebiete.</p>



<figure class="wp-block-image size-full"><img data-recalc-dims="1" fetchpriority="high" decoding="async" width="871" height="871" src="https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/Clustering-Algorithmen.jpg?resize=871%2C871&#038;ssl=1" alt="Clustering-Algorithmen" class="wp-image-4442" srcset="https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/Clustering-Algorithmen.jpg?w=1024&amp;ssl=1 1024w, https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/Clustering-Algorithmen.jpg?resize=300%2C300&amp;ssl=1 300w, https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/Clustering-Algorithmen.jpg?resize=150%2C150&amp;ssl=1 150w, https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/Clustering-Algorithmen.jpg?resize=768%2C768&amp;ssl=1 768w" sizes="(max-width: 871px) 100vw, 871px" /></figure>



<h2 class="wp-block-heading">Was ist Clustering?</h2>



<p>Clustering beschreibt den Prozess der Gruppierung einer Menge von Objekten in Cluster, sodass Objekte innerhalb eines Clusters einander ähnlicher sind als Objekte aus verschiedenen Clustern. Dies geschieht ohne vorher festgelegte Labels oder Kategorien, weshalb man Clustering auch als <a href="https://ceosbay.com/2025/01/24/unueberwachtes-lernen-eine-schluesseltechnologie-der-ki/">unüberwachtes Lernen</a> bezeichnet.</p>



<h2 class="wp-block-heading">Beliebte Clustering-Algorithmen</h2>



<h3 class="wp-block-heading">1. <strong>K-Means</strong></h3>



<p>Der K-Means-Algorithmus ist einer der am häufigsten verwendeten Clustering-Algorithmen. Er funktioniert folgendermaßen:</p>



<ul class="wp-block-list">
<li>Wähle zufällig k Cluster-Zentren (Centroids).</li>



<li>Weisen jedem Datenpunkt das nächstgelegene Cluster-Zentrum zu.</li>



<li>Berechne die neuen Zentren als Mittelwert der zugewiesenen Punkte.</li>



<li>Wiederhole den Prozess, bis sich die Cluster-Zentren nicht mehr ändern.</li>
</ul>



<p><strong>Vorteile:</strong></p>



<ul class="wp-block-list">
<li>Einfach zu implementieren</li>



<li>Effizient für große Datensätze</li>
</ul>



<p><strong>Nachteile:</strong></p>



<ul class="wp-block-list">
<li>Die Anzahl der Cluster k muss vorher festgelegt werden</li>



<li>Sensitiv gegenüber Ausreißern</li>
</ul>



<h3 class="wp-block-heading">2. <strong>Hierarchisches Clustering</strong></h3>



<p>Hierarchisches Clustering erstellt eine hierarchische Struktur von Clustern in Form eines sogenannten Dendrogramms. Es gibt zwei Hauptmethoden:</p>



<ul class="wp-block-list">
<li><strong>Agglomerative Methode:</strong> Beginnt mit jedem Datenpunkt als eigenes Cluster und fusioniert schrittweise die nächstgelegenen Cluster.</li>



<li><strong>Divisive Methode:</strong> Beginnt mit allen Datenpunkten in einem Cluster und teilt sie schrittweise in kleinere Gruppen auf.</li>
</ul>



<p><strong>Vorteile:</strong></p>



<ul class="wp-block-list">
<li>Kein Vorwissen über die Anzahl der Cluster erforderlich</li>



<li>Liefert eine anschauliche Darstellung der Cluster-Beziehungen</li>
</ul>



<p><strong>Nachteile:</strong></p>



<ul class="wp-block-list">
<li>Hohe Berechnungskosten für große Datensätze</li>
</ul>



<h3 class="wp-block-heading">3. <strong>DBSCAN (Density-Based Spatial Clustering of Applications with Noise)</strong></h3>



<p>DBSCAN ist ein dichtebasierter Algorithmus, der Cluster anhand der Dichte von Datenpunkten identifiziert. Er unterscheidet zwischen:</p>



<ul class="wp-block-list">
<li>Kernpunkten (Punkte mit ausreichend vielen Nachbarn)</li>



<li>Randpunkten (Teil eines Clusters, aber mit weniger Nachbarn)</li>



<li>Rauschen (Punkte, die zu keinem Cluster gehören)</li>
</ul>



<p><strong>Vorteile:</strong></p>



<ul class="wp-block-list">
<li>Kann Cluster beliebiger Form erkennen</li>



<li>Robust gegen Ausreißer</li>
</ul>



<p><strong>Nachteile:</strong></p>



<ul class="wp-block-list">
<li>Schwierige Wahl der Parameter</li>



<li>Probleme bei stark variierender Dichte innerhalb der Cluster</li>
</ul>



<h3 class="wp-block-heading">4. <strong>Gaussian Mixture Model (GMM)</strong></h3>



<p>GMM basiert auf der Annahme, dass die Daten einer Mischung aus mehreren Normalverteilungen (Gauss-Verteilungen) entstammen. Es verwendet das <strong>Expectation-Maximization (EM)</strong>-Verfahren, um die Wahrscheinlichkeitsverteilung jedes Clusters zu schätzen.</p>



<p><strong>Vorteile:</strong></p>



<ul class="wp-block-list">
<li>Flexibler als K-Means, da es elliptische Clusterformen zulässt</li>



<li>Liefert eine probabilistische Zuordnung der Punkte zu Clustern</li>
</ul>



<p><strong>Nachteile:</strong></p>



<ul class="wp-block-list">
<li>Rechenintensiv</li>



<li>Benötigt eine gute Initialisierung der Parameter</li>
</ul>



<p>Aber hier geht es zu dem ausführlichen Beitrag über <a href="https://ceosbay.com/2025/02/06/gmms-gaussian-mixture-models/">GMMs</a></p>



<h2 class="wp-block-heading">Fazit Clustering-Algorithmen</h2>



<p>Clustering-Algorithmen sind ein leistungsfähiges Werkzeug zur Mustererkennung in Daten. Welcher <a href="https://ceosbay.com/2025/01/03/algorithmen-die-unsichtbaren-architekten-unserer-welt/">Algorithmus</a> der beste ist, hängt stark von der Art der Daten und dem jeweiligen Anwendungsfall ab. Während K-Means für viele Standardprobleme gut geeignet ist, bieten hierarchisches Clustering, DBSCAN und <a href="https://ceosbay.com/2025/02/06/gmms-gaussian-mixture-models/">GMM</a> oft bessere Alternativen für komplexere Strukturen.</p>



<p>Die Wahl des richtigen <a href="https://ceosbay.com/2025/01/03/algorithmen-die-unsichtbaren-architekten-unserer-welt/">Algorithmus</a> kann durch Visualisierung und Tests mit verschiedenen Methoden erleichtert werden. Mit einer klugen Strategie lässt sich das Potenzial von Clustering optimal nutzen, um wertvolle Erkenntnisse aus unstrukturierten Daten zu gewinnen.</p>
<p>Der Beitrag <a href="https://ceosbay.com/2025/02/11/clustering-algorithmen-gruppieren-von-daten/">Clustering Algorithmen &#8211; Gruppieren von Daten</a> erschien zuerst auf <a href="https://ceosbay.com">CEOsBay</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://ceosbay.com/2025/02/11/clustering-algorithmen-gruppieren-von-daten/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">4416</post-id>	</item>
		<item>
		<title>GMMs (Gaussian Mixture Models)</title>
		<link>https://ceosbay.com/2025/02/06/gmms-gaussian-mixture-models/</link>
					<comments>https://ceosbay.com/2025/02/06/gmms-gaussian-mixture-models/#respond</comments>
		
		<dc:creator><![CDATA[CEO]]></dc:creator>
		<pubDate>Thu, 06 Feb 2025 22:29:27 +0000</pubDate>
				<category><![CDATA[Agile]]></category>
		<category><![CDATA[API-Testing]]></category>
		<category><![CDATA[Deep Learning]]></category>
		<category><![CDATA[Deepfakes]]></category>
		<category><![CDATA[DevOps]]></category>
		<category><![CDATA[Entwicklung]]></category>
		<category><![CDATA[Explainable AI]]></category>
		<category><![CDATA[KI-Modelle]]></category>
		<category><![CDATA[KI-Testing]]></category>
		<category><![CDATA[Künstliche Intelligenz]]></category>
		<category><![CDATA[Maschinelles Lernen]]></category>
		<category><![CDATA[Natural Language Processing]]></category>
		<category><![CDATA[Neuronales Netzwerk]]></category>
		<category><![CDATA[Performance-Testing]]></category>
		<category><![CDATA[Programmieren]]></category>
		<category><![CDATA[Software]]></category>
		<category><![CDATA[Softwarequalität]]></category>
		<category><![CDATA[Spieleentwicklung]]></category>
		<category><![CDATA[Super AI]]></category>
		<category><![CDATA[Testautomatisierung]]></category>
		<category><![CDATA[Testing]]></category>
		<category><![CDATA[Testmanagement]]></category>
		<category><![CDATA[Anomalieerkennung]]></category>
		<category><![CDATA[Bildverarbeitung]]></category>
		<category><![CDATA[Clustering]]></category>
		<category><![CDATA[Datenanalyse]]></category>
		<category><![CDATA[EM-Algorithmus]]></category>
		<category><![CDATA[Gaussian Mixture Models]]></category>
		<category><![CDATA[GMM]]></category>
		<category><![CDATA[k-Means]]></category>
		<category><![CDATA[KI]]></category>
		<category><![CDATA[Machine Learning]]></category>
		<category><![CDATA[maschinelles Lernen]]></category>
		<category><![CDATA[probabilistische Modellierung]]></category>
		<category><![CDATA[Spracherkennung]]></category>
		<category><![CDATA[Statistik]]></category>
		<category><![CDATA[Wahrscheinlichkeitsverteilungen]]></category>
		<guid isPermaLink="false">https://ceosbay.com/?p=3793</guid>

					<description><![CDATA[<p>Gaussian Mixture Models (GMMs) sind eine leistungsfähige Technik zur Modellierung komplexer Wahrscheinlichkeitsverteilungen. Sie werden häufig in der Statistik, im maschinellen Lernen und in der Signalverarbeitung verwendet. Ihre Fähigkeit, mehrmodale Daten zu modellieren, macht sie besonders &#8230;</p>
<p>Der Beitrag <a href="https://ceosbay.com/2025/02/06/gmms-gaussian-mixture-models/">GMMs (Gaussian Mixture Models)</a> erschien zuerst auf <a href="https://ceosbay.com">CEOsBay</a>.</p>
]]></description>
										<content:encoded><![CDATA[
<p>Gaussian Mixture Models (GMMs) sind eine leistungsfähige Technik zur Modellierung komplexer Wahrscheinlichkeitsverteilungen. Sie werden häufig in der Statistik, im <a href="https://ceosbay.com/2025/01/06/maschinelles-lernen-die-technologie-die-die-welt-veraendert/">maschinellen Lernen</a> und in der Signalverarbeitung verwendet. Ihre Fähigkeit, mehrmodale Daten zu modellieren, macht sie besonders nützlich für Anwendungen, in denen eine einfache Normalverteilung nicht ausreicht.</p>



<figure class="wp-block-image size-full"><img data-recalc-dims="1" decoding="async" width="871" height="871" src="https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/GMMs.jpg?resize=871%2C871&#038;ssl=1" alt="GMMs" class="wp-image-4155" srcset="https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/GMMs.jpg?w=1024&amp;ssl=1 1024w, https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/GMMs.jpg?resize=300%2C300&amp;ssl=1 300w, https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/GMMs.jpg?resize=150%2C150&amp;ssl=1 150w, https://i0.wp.com/ceosbay.com/wp-content/uploads/2025/02/GMMs.jpg?resize=768%2C768&amp;ssl=1 768w" sizes="(max-width: 871px) 100vw, 871px" /></figure>



<h3 class="wp-block-heading"><strong>Grundlagen eines GMM</strong></h3>



<p>Ein Gaussian Mixture Model ist eine gewichtete Summe mehrerer normalverteilter Komponenten:</p>



\(p(x) = \sum_{i=1}^{K} \, \pi_i \mathcal{N}(x | \mu_i, \Sigma_i)\)



<p>Hierbei gilt:</p>



<ul class="wp-block-list">
<li>$\pi_i$ sind die Mischungsgewichte mit $\sum_{i=1}^{K} \pi_i = 1$.</li>



<li>$\mathcal{N}(x | \mu_i, \Sigma_i)$ ist eine multivariate Normalverteilung mit Mittelwert $\mu_i$ und Kovarianzmatrix $\Sigma_i$.</li>



<li>$K$ ist die Anzahl der Mischungs-Komponenten.</li>
</ul>



<h3 class="wp-block-heading"><strong>Warum GMMs verwenden?</strong></h3>



<p>GMMs bieten eine probabilistische Methode, um Cluster in Daten zu erkennen. Im Gegensatz zu k-Means erlauben sie Cluster mit unterschiedlichen Formen und Größen.</p>



<p><strong>Schätzung der Parameter mit dem Expectation-Maximization (EM) Algorithmus</strong></p>



<p>Die Parameter eines GMM \(\sum_{i=1}^{K} \pi_i \mathcal{N}(x | \mu_i, \Sigma_i)\) werden typischerweise mit dem Expectation-Maximization-Algorithmus (EM) geschätzt. Der EM-Algorithmus optimiert iterativ die Wahrscheinlichkeiten und Parameter, um das beste Modell für die gegebenen Daten zu finden. Dabei besteht der Algorithmus aus zwei Hauptschritten:</p>



<ul class="wp-block-list">
<li><strong>E-Schritt:</strong> Berechnung der Verantwortlichkeiten (posteriori Wahrscheinlichkeiten) für jede Komponente:</li>
</ul>



\(\, \gamma_i(x) = \frac{\pi_i \mathcal{N}(x | \mu_i, \Sigma_i)}{\sum_{j=1}^{K} \pi_j \mathcal{N}(x | \mu_j, \Sigma_j)}\)



<ul class="wp-block-list">
<li><strong>M-Schritt:</strong> Aktualisierung der Parameter basierend auf den Verantwortlichkeiten:</li>
</ul>



\(\mu_i^{(t+1)} = \frac{\sum_{n} \gamma_i(x_n) x_n}{\sum_{n} \gamma_i(x_n)}\)



\(\Sigma_i^{(t+1)} = \frac{\sum_{n} \gamma_i(x_n) (x_n &#8211; \mu_i^{(t+1)})(x_n &#8211; \mu_i^{(t+1)})^T}{\sum_{n} \gamma_i(x_n)}\)



\(\pi_i^{(t+1)} = \frac{\sum_{n} \gamma_i(x_n)}{N}\)



<h3 class="wp-block-heading"><strong>Anwendungen von GMMs</strong></h3>



<ul class="wp-block-list">
<li><strong>Clustering:</strong> GMMs werden oft als eine weichere Alternative zu k-Means verwendet, da sie probabilistische Cluster zuweisen.</li>



<li><strong>Spracherkennung:</strong> In der Sprachverarbeitung werden GMMs verwendet, um akustische Merkmale zu modellieren.</li>



<li><strong>Bildverarbeitung:</strong> Segmentierung von Bildern durch Farbverteilungen.</li>



<li><strong>Anomalieerkennung:</strong> Erkennen von ungewöhnlichen Mustern in Daten.</li>



<li><strong>Finanzwesen:</strong> Modellierung von Asset-Renditen zur Risikoanalyse.</li>
</ul>



<h3 class="wp-block-heading"><strong>GMMs vs. K-Means</strong></h3>



<p>Während K-Means harte Cluster-Zuweisungen trifft, weisen GMMs jedem Punkt eine Wahrscheinlichkeit für jede Clusterzugehörigkeit zu. Dadurch können GMMs flexiblere Cluster-Formen modellieren, was sie für viele Anwendungen überlegen macht.</p>



<h3 class="wp-block-heading"><strong>Fazit</strong></h3>



<p>Gaussian Mixture Models sind ein flexibles Werkzeug zur Modellierung und Analyse von Daten. Ihre Fähigkeit, komplexe Datenstrukturen zu erfassen, macht sie zu einer wertvollen Technik in vielen Bereichen der Datenwissenschaft. Durch den EM-Algorithmus können sie effizient trainiert werden und liefern bessere Ergebnisse als rein deterministische Clusterverfahren.</p>
<p>Der Beitrag <a href="https://ceosbay.com/2025/02/06/gmms-gaussian-mixture-models/">GMMs (Gaussian Mixture Models)</a> erschien zuerst auf <a href="https://ceosbay.com">CEOsBay</a>.</p>
]]></content:encoded>
					
					<wfw:commentRss>https://ceosbay.com/2025/02/06/gmms-gaussian-mixture-models/feed/</wfw:commentRss>
			<slash:comments>0</slash:comments>
		
		
		<post-id xmlns="com-wordpress:feed-additions:1">3793</post-id>	</item>
	</channel>
</rss>
