Posted On July 15, 2025

ISC25-Videotalk: Wie Künstliche Intelligenz und Hochleistungsrechnen die globale IT-Welt revolutionieren

Tadday Schwarz 0 comments
Technikwelt >> IT-Tutorials >> ISC25-Videotalk: Wie Künstliche Intelligenz und Hochleistungsrechnen die globale IT-Welt revolutionieren
ki_hochleistungsrechnen_itrevolution

Die fortschreitende Digitalisierung in fast allen Lebens- und Wirtschaftsbereichen bewirkt ein unkontrolliertes Anwachsen von Daten. Zur selben Zeit ergeben sich neue Ansprüche an die IT‑Infrastruktur, vor allem was Geschwindigkeit, Skalierbarkeit und Intelligenz betrifft. Im Mittelpunkt dieser Entwicklung stehen künstliche Intelligenz (KI) und Hochleistungsrechnen (High Performance Computing, HPC). Die beiden Technologien stellen eine optimale Ergänzung füreinander dar: KI nutzt die Rechenkapazitäten heutiger Supercomputer, während HPC durch intelligente Algorithmen an Effizienz gewinnt.

Bei der International Supercomputing Conference (ISC25) verdeutlichte ein vielbeachteter Videotalk, wie sehr die Konvergenz von KI und HPC die IT-Welt verändert. Die Informationsverarbeitung tritt in eine neue Ära ein, die durch maschinelles Lernen, neuronale Netzwerke und datenintensive Simulationen geprägt ist. Unternehmen, Wissenschaft und Gesellschaft stehen vor dieser Herausforderung. Der Bedarf an leistungsstarken Rechenzentren und verbesserten Algorithmen nimmt rasant zu. Zur selben Zeit wachsen die Erwartungen an eine sichere, nachhaltige und ökonomische Verwendung dieser Technologien.

Im Videotalk wurde eindrucksvoll demonstriert, wie fortschrittliche Rechenmethoden dabei helfen, globale Herausforderungen wie Klimaforschung, medizinische Diagnostik, Finanzanalyse und industrielle Automatisierung effizienter und präziser zu bewältigen. Immer mehr Firmen setzen auf hybride Modelle, die eine flexible Kombination aus Cloud-Computing und On-Premise-HPC-Architekturen bieten. Im Besonderen werden dabei neue Service-Modelle wie IaaS, PaaS, SaaS und FaaS in den Blick genommen, die eine bedarfsorientierte Nutzung komplexer IT-Ressourcen ermöglichen.

Für diese technologische Transformation sind nicht nur leistungsfähige Hardwarekomponenten notwendig, sondern auch ein tiefgehendes Verständnis von Sicherheitsanforderungen, Datenmanagement und Compliance-Richtlinien. Auch das Thema Cloud-Security wird immer wichtiger, da zahlreiche KI-gestützte Anwendungen auf Cloud-Infrastrukturen angewiesen sind.

Der folgende Artikel behandelt acht zentrale Themen des ISC25-Videotalks ausführlicher. Es handelt sich um technologische Grundlagen, aktuelle Trends, praktische Anwendungsbeispiele und strategische Perspektiven im Zusammenhang zwischen Hochleistungsrechnen und Künstlicher Intelligenz.

Die Basis von HPC und KI – Eine technologische Symbiose

Hochleistungsrechnen (HPC) umfasst Systeme, die komplexe Rechenoperationen in minimaler Zeit durchführen können. Es geht um Supercomputer oder große Cluster mit tausenden von Prozessorkernen, die in der Lage sind, riesige Datenmengen zu verarbeiten. Zu den traditionellen Einsatzgebieten von HPC zählen Wettervorhersagen, Molekulardynamik, Strömungssimulationen sowie Finite-Elemente-Analysen.

Künstliche Intelligenz hingegen beruht auf der maschinellen Nachbildung menschlicher Lern- und Entscheidungsprozesse. Insbesondere das maschinelle Lernen (ML) und Deep Learning (DL) haben in den letzten Jahren durch verbesserte Algorithmen und größere Datenmengen an Leistungsfähigkeit zugenommen. Allerdings benötigen die Trainingsprozesse für KI-Modelle extrem viel Rechenleistung, weshalb eine enge Verbindung zu HPC notwendig ist.

Diese technologische Symbiose bringt Vorteile für beide Seiten: Auf HPC-Systemen erfolgen Training von KI-Modellen schneller und genauer, während die HPC-Systeme durch KI effizienter arbeiten, z. B. mittels intelligenter Lastverteilung, adaptiver Ressourcenplanung oder Fehlerprognosen im Betrieb. Darüber hinaus ergeben sich durch diese Verbindung neue Chancen für die Analyse unstrukturierter Daten, z. B. Bild-, Sprach- oder Textdaten, die in herkömmlichen HPC-Simulationen selten Beachtung fanden.

Auch die Systemarchitektur wandelt sich: Während klassische HPC-Systeme stark auf Parallelverarbeitung ausgelegt sind, setzen moderne Systeme zunehmend auf spezialisierte Hardware wie GPUs (Graphics Processing Units) oder TPUs (Tensor Processing Units), die besonders für KI-Berechnungen geeignet sind. Die Entwicklung tendiert zu heterogenen Systemen, die je nach Anwendung dynamisch die passenden Ressourcen bereitstellen.

Darüber hinaus gewinnen Container-Technologien und Orchestrierungstools wie Kubernetes an Bedeutung, um flexible, skalierbare und portable Arbeitsumgebungen für KI- und HPC-Anwendungen zu entwickeln. So können komplexe Workflows plattformübergreifend ausgeführt und verwaltet werden – dies ist eine Schlüsselkomponente für die Modernisierung der globalen IT-Infrastruktur.

Cloud-Computing als Antrieb für KI- und HPC-Anwendungen mit Skalierungsmöglichkeiten

Cloud-Plattformen als Bereitstellungsmittel für rechenintensive Anwendungen haben sich als wesentlicher Erfolgsfaktor für die Vereinigung von KI und HPC erwiesen. Durch Cloud-Computing ist es Unternehmen und Forschungseinrichtungen möglich, auf leistungsstarke IT-Ressourcen zuzugreifen, ohne dass sie eigene Rechenzentren betreiben müssen. Dadurch werden die Einstiegshürden nicht nur gesenkt, sondern auch die Flexibilität, Skalierbarkeit und Kostenkontrolle verbessert.

Dienste wie Infrastructure as a Service (IaaS) stellen den Nutzern Speicherplatz sowie Netzwerk- und Rechenkapazitäten bereit, die auf ihren Bedarf zugeschnitten sind. Diese Skalierbarkeit ist besonders wichtig für KI-Projekte, die große Mengen an Trainingsdaten verarbeiten müssen. Platform as a Service (PaaS) erweitert dieses Modell um Entwicklungs- und Testumgebungen für KI-Anwendungen, wodurch eine agile Softwareentwicklung ermöglicht wird.

In Feldern wie Business Intelligence, Spracherkennung oder Bilderkennung hat sich Software as a Service (SaaS) etabliert. Benutzer verwenden KI-Modelle, die bereits erstellt wurden und für deren Training oder Infrastruktur sie sich nicht kümmern müssen. Function as a Service (FaaS), auch bekannt als serverloses Computing, bietet eine noch feinere Granularität. Einzelne Codefunktionen können von Entwicklern ausgeführt werden, wobei sie nur dann Ressourcen beanspruchen, wenn sie tatsächlich in Gebrauch sind.

Die Vorzüge sind offensichtlich: kurze Umsetzungszeiten, leichte Skalierung, automatische Aktualisierungen und Abrechnung basierend auf der tatsächlichen Nutzung. Es ist Unternehmen möglich, neue KI-Anwendungen binnen weniger Tage zu testen und bei positivem Ergebnis unmittelbar in die Produktion zu überführen. Forschungseinrichtungen können auf Supercomputing-Ressourcen zugreifen, ohne dass sie langfristige Investitionen vornehmen müssen.

Darüber hinaus tragen hybride und Multi-Cloud-Strategien zur Integration unterschiedlicher IT-Landschaften bei. HPC-Workloads, die auf speziellen On-Premise-Systemen trainiert werden, können nahtlos in eine Cloud-Umgebung migriert oder dort skaliert werden. Dadurch können Ressourcen je nach Projektphase und Datenvolumen flexibel genutzt werden.

Cloud-Anbieter wie AWS, Microsoft Azure, Google Cloud oder IBM offerieren mittlerweile spezialisierte Dienstleistungen für HPC und KI – darunter vorgefertigte Machine-Learning-Modelle, optimierte Compute-Instanzen und leistungsstarke Datenpipelines. Dadurch wird die Kombination von KI und HPC in modernen IT-Architekturen immer mehr zur Norm.

Datenverarbeitung auf neuem Niveau – Vom Exascale- zum Edge-Computing

Die Leistungsfähigkeit heutiger Supercomputer wird immer häufiger in ExaFLOPS angegeben, was einer Fähigkeit von einer Billion Gleitkommaoperationen pro Sekunde entspricht. Mit dem Sprung in das sogenannte Exascale-Zeitalter wird ein großer Fortschritt für Forschung und Industrie erreicht. Systeme wie „Frontier“ (USA) oder „Fugaku“ (Japan) zählen schon jetzt zu den ersten Exascale-Rechnern weltweit und definieren neue Standards in der Datenverarbeitung.

Für das Training von hochkomplexen KI-Modellen, wie sie in der generativen KI bei Sprachmodellen, medizinischen Bildanalysen oder im Bereich des autonomen Fahrens verwendet werden, ist diese Rechenleistung besonders erforderlich. Die Fähigkeit, Milliarden von Parametern in akzeptabler Zeit zu trainieren, stellt einen maßgeblichen Vorteil im internationalen Innovationswettbewerb dar.

Zur selben Zeit entsteht ein weiterer, komplementärer Trend in Richtung Edge Computing. Daten werden hierbei nicht zentral, sondern dezentral verarbeitet – direkt dort, wo sie entstehen. Dadurch werden Latenzzeiten und Bandbreitenbedarf deutlich verringert, was insbesondere für zeitkritische Anwendungen wie Industrieautomation, Smart Cities oder vernetzte Fahrzeuge von Bedeutung ist.

Durch die Kombination von HPC und Edge Computing entstehen hybride Architekturen, bei denen lokale Edge-Geräte erste Analysen vornehmen und lediglich relevante Daten an zentrale HPC-Systeme weiterleiten. So können Ressourcen effektiver eingesetzt und datenschutzrechtliche Vorgaben besser eingehalten werden. Nach dem Training auf Supercomputern können KI-Modelle in optimierter Form auf Edge-Geräten ausgeführt werden (Inference).

Im Bereich Cloud-to-Edge zeichnen sich ebenfalls neue Standards ab, unter anderem durch containerisierte Deployments oder spezialisierte Frameworks wie NVIDIA Jetson, Intel OpenVINO und Google Coral. KI auf energieeffizienten Edge-Prozessoren zu integrieren, ist entscheidend für Echtzeitanwendungen und den Schutz sensibler Daten.

Der Ausbau der 5G- und später 6G-Netze wird diese Entwicklung vorantreiben, indem die Konnektivität zwischen Edge-Devices und Rechenzentren optimiert wird. Eine Zukunft, in der Edge-Effizienz und Exascale-Performance miteinander verbunden sind, gehört einer verteilten Datenverarbeitung.

 Cloud-Security in der Ära intelligenter IT-Infrastrukturen

Mit der immer weiter voranschreitenden Verlagerung sensibler Daten und Anwendungen in die Cloud werden Fragen der IT-Sicherheit zwangsläufig wichtiger. Vor allem beim Einsatz von KI-gestützten Systemen und Hochleistungsrechnen auf verteilten Cloud-Infrastrukturen entstehen neue Bedrohungsszenarien. Die Cloud-Security gehört zu den strategischen Herausforderungen der IT-Welt, die auf der ISC25 ausführlich diskutiert wurden.

Die Zugriffsverwaltung ist ein wesentlicher Bestandteil der Cloud-Security: Nur berechtigte Nutzer dürfen auf bestimmte Daten oder Dienste zugreifen. Es bedarf ausgereifter Systeme für Identitäts- und Rechtemanagement, oft unter Verwendung von Multifaktor-Authentifizierung (MFA), biometrischer Verifikation oder Zero-Trust-Architekturen. Insbesondere für KI-Anwendungen, die personenbezogene Daten nutzen, bestehen strenge gesetzliche Vorgaben wie die DSGVO oder der CLOUD Act.

Ein weiterer Aspekt ist die physische und logische Absicherung von Rechenzentren. Große Cloud-Anbieter vertrauen auf eigene Rechenzentren, die mit Hochsicherheitsstandards, redundanter Energieversorgung, Brandschutzsystemen und Zugangskontrollen ausgestattet sind. Die Absicherung im virtuellen Bereich erfolgt durch Firewalls, Intrusion Detection Systeme (IDS) sowie regelmäßige Sicherheitsupdates.

Auch die Sicherheit des Netzwerks ist entscheidend, vor allem bei hybriden und Multi-Cloud-Modellen. Unerwünschte Zugriffe und Datenlecks werden durch VPNs, TLS-Verschlüsselung und Segmentierung von Netzwerken verhindert. Daten werden oft in verschlüsselter Form gespeichert (At Rest) und während ihrer Übertragung gesichert (In Transit). Auch die In-Use-Verschlüsselung gewinnt an Bedeutung, unter anderem durch homomorphe Verschlüsselung oder Confidential Computing.

Ein weiteres wichtiges Thema ist die Überwachung von KI-Modellen selbst. Sie können durch adversariale Angriffe beeinflusst oder nicht korrekt trainiert werden. Eine robuste Sicherheitsstrategie umfasst daher auch die fortlaufende Überwachung und Bewertung von Modellen, einschließlich Nachvollziehbarkeit (Explainability) und Risikobewertung.

Schließlich nimmt die Bedeutung der Compliance zu. Firmen müssen belegen, dass ihre KI-basierten Cloud-Workloads rechtskonform betrieben werden – beispielsweise durch Zertifikate (ISO/IEC 27001, SOC 2), regelmäßige Audits und standardisierte Sicherheitsrichtlinien.

Damit stellt die Cloud-Security eine elementare Voraussetzung dafür dar, dass KI- und HPC-Anwendungen in der globalen IT-Welt Vertrauen genießen und akzeptiert werden.

 Industriesektor Anwendungsszenarien – Vom Automobil bis zur Pharma

Im ISC25-Videotalk wurde anhand vieler Fallbeispiele demonstriert, wie vielfältig das Anwendungsspektrum von KI und HPC in der Industrie ist. Ob in der Automobilindustrie, der Energiegewinnung oder der Pharmakologie – die intelligente Handhabung großer Datenmengen ist überall entscheidend für Innovation, Effizienz und Wettbewerbsvorteile.

In der Automobilbranche wird die Verknüpfung von KI und HPC insbesondere zur Entwicklung autonomer Fahrfunktionen genutzt. Es gilt, enorme Mengen an Sensordaten – von Lidar über Radar bis hin zu Kameras – zu verarbeiten und in Echtzeit auszuwerten. HPC erlaubt das Training komplexer neuronaler Netze, während KI die Entscheidungsfindung auf der Fahrt lenkt. Simulationen von vollständigen Fahrszenarien erfolgen in virtuellen Testumgebungen, die über eine extrem hohe Rechenleistung verfügen.

In der Energiebranche kommen KI und HPC unter anderem zum Einsatz, um Stromnetze (Smart Grids) zu optimieren, den Energiebedarf vorherzusagen und erneuerbare Energiequellen zu integrieren. Eine Auswertung von historischen und gegenwärtigen Daten ermöglicht einen besseren Ausgleich von Lastspitzen und eine effizientere Energieverteilung. Datenintensive Rechenmodelle werden auch bei der Untersuchung von Erdölvorkommen und geologischen Strukturen verwendet.

Die Entwicklung neuer Medikamente wird durch KI und HPC in der Pharmaindustrie revolutioniert. Molekulardynamik-Simulationen, Wirkstoffscreenings und Proteinstrukturvorhersagen, wie sie durch Projekte wie AlphaFold bekannt wurden, reduzieren die Entwicklungszeit neuer Medikamente erheblich. HPC-Systeme machen es möglich, Millionen potenzieller Molekülkombinationen binnen kurzer Zeit zu testen und die vielversprechendsten Kandidaten mithilfe von KI auszuwählen.

Auch in der Finanzbranche finden KI und HPC zunehmend Anwendung, beispielsweise zur Risikobewertung, bei der Fraud Detection oder im algorithmischen Handel. Millisekunden-genaue Rechenleistung entscheidet hier über den Erfolg oder Misserfolg von Transaktionen. Muster in Börsendaten können durch maschinelles Lernen frühzeitig identifiziert und Entscheidungen automatisiert getroffen werden.

Auch in der Luft- und Raumfahrt, der Materialforschung und dem Bauwesen finden sich weitere Anwendungsgebiete, in denen KI und HPC komplexe physikalische Simulationen ermöglichen – beispielsweise für neue Materialien oder aerodynamische Optimierungen.

Diese Beispiele zeigen: Die technologische Verbindung aus KI und HPC ist bereits ein produktiver Bestandteil industrieller Wertschöpfungsketten geworden.

Mit Blick auf Nachhaltigkeit und Energieeffizienz

Der Energieverbrauch moderner IT-Systeme nimmt zu, da deren Rechenleistung exponentiell wächst. Supercomputer und große KI-Modelle verbrauchen enorme Mengen an Strom, was ökologische, ökonomische und gesellschaftliche Fragestellungen aufwirft. Deshalb legte der ISC25-Videotalk zu diesem Thema einen besonderen Fokus.

Ein Hauptziel besteht in der Entwicklung von Rechenzentren mit hoher Energieeffizienz. Dies wird durch verbesserte Kühlung, Nutzung von Abwärme und Verwendung energieeffizienter Prozessoren umgesetzt. Es werden Anbieter gefunden, die in „Green Data Centers“ investieren, welche vollständig mit regenerativen Energien betrieben werden. Diese Strategien umfassen auch modulare Rechenzentren in klimatisch begünstigten Regionen sowie Unterwasserrechenzentren.

Hardwarehersteller entwickeln immer mehr spezialisierte KI-Beschleuniger, die bei vergleichbarer Rechenleistung deutlich weniger Energie verbrauchen als herkömmliche CPUs. Hierzu zählen GPUs, TPUs, FPGAs sowie dedizierte ASICs, die auf bestimmte Workloads optimiert sind. Ziel ist es, die Rechenleistung pro Watt so hoch wie möglich zu gestalten. Dies stellt eine bedeutende Kenngröße für IT dar, die energieeffizient ist.

Intelligente Scheduling-Algorithmen helfen auf Softwareebene dabei, die Auslastung von Rechenzentren zu optimieren. Aufgaben können mithilfe von KI-gestützten Prognosen so verteilt werden, dass Lastspitzen vermieden und der Stromverbrauch verringert wird. Das dynamische Abschalten von Ressourcen, die nicht genutzt werden, trägt ebenfalls zur Energieeinsparung bei.

Ein weiterer Trend ist das Federated Learning, bei dem KI-Modelle dezentral auf Edge-Geräten trainiert werden. Dies schont zentrale Rechenressourcen und minimiert Datenübertragungen. Das spart Energie und verbessert den Datenschutz.

Trotz dieser Fortschritte bleibt die Nachhaltigkeit ein entscheidender Aspekt: Der CO₂-Fußabdruck großer Sprachmodelle wie GPT oder BERT ist erheblich. Daher wird das Thema „Green AI“ zunehmend wichtig – die bewusste Entwicklung ressourcenschonender, effizienter KI-Modelle, die mit weniger Trainingsdaten und Rechenleistung auskommen.

Die Schwierigkeit besteht darin, technologische Exzellenz und ökologische Verantwortung zu vereinen. Es handelt sich dabei nicht nur um ein Gebot der Nachhaltigkeit, sondern auch um einen zunehmend bedeutsamen Wettbewerbsfaktor auf den internationalen Märkten.

 Interoperabilität und offene Standards als Motoren der Innovation

Offene Schnittstellen, gemeinsame Standards und Interoperabilität prägen maßgeblich den technologischen Fortschritt im Bereich der KI und HPC. Es wurde auf der ISC25 klar, dass die Kooperation zwischen unterschiedlichen Systemen, Plattformen und Technologien eine wesentliche Bedingung für Effizienz und Innovation ist.

Workloads sollten portabel sein – das ist ein wesentlicher Punkt. Es muss möglich sein, Anwendungen und Modelle zwischen unterschiedlichen Umgebungen – On-Premise, Cloud, Edge – zu migrieren. Containerisierung mit Tools wie Docker oder Podman sowie Orchestrierung über Kubernetes schaffen genau das: eine standardisierte, reproduzierbare Umgebung, unabhängig vom zugrunde liegenden Betriebssystem oder Anbieter.

Offene Standards spielen auch beim Austausch von Daten eine entscheidende Rolle. Mit Formaten wie JSON, HDF5 oder Parquet lassen sich große Datenmengen strukturiert speichern und analysieren, auch über Systemgrenzen hinweg. In der Entwicklung von KI setzen sich Frameworks wie ONNX durch, die den Transfer von Modellen zwischen TensorFlow, PyTorch und anderen Umgebungen ermöglichen.

Im Bereich HPC sind APIs wie MPI (Message Passing Interface) oder OpenMP nach wie vor unverzichtbar, um parallele Rechenprozesse auf verschiedenen Hardwareplattformen zu steuern. Zur selben Zeit werden neue Paradigmen wie „Composable Infrastructure“ und Software-Defined Everything (SDE) erörtert, die eine dynamische Ressourcenzuweisung auf Anwendungsebene ermöglichen.

Die Kooperation in internationalen Konsortien wie der European High Performance Computing Joint Undertaking (EuroHPC JU) oder der Open Compute Project Foundation verdeutlicht ebenfalls: Gemeinsame Standards fördern Innovationen, verhindern Lock-in-Effekte und unterstützen die globale Zusammenarbeit.

Offene Standards fördern zudem die bessere Einbindung von Sicherheitsvorkehrungen, Datenklassifizierungen und Compliance-Richtlinien – ein bedeutender Vorteil in regulierten Bereichen wie dem Gesundheitswesen oder der Finanzwirtschaft.

Interoperabilität stellt daher kein technisches Detail dar, sondern einen strategischen Hebel für die Weiterentwicklung von KI und HPC in einer zunehmend vernetzten Welt.

Zukunftsperspektiven: Quantencomputing, automatisiertes maschinelles Lernen und KI-Governance

Die Zukunft von KI und HPC wird weit über das hinausgehen, was derzeit als Stand der Technik angesehen wird. Auf der ISC25 wurden unterschiedliche technologische Visionen skizziert, die in den kommenden Jahren Wirklichkeit werden könnten – mit weitreichenden Auswirkungen auf die globale IT-Welt.

Quantencomputing wird als potenzieller Gamechanger für Hochleistungsrechnen und KI angesehen. Quantencomputer verwenden Qubits, die sich gleichzeitig in mehreren Zuständen befinden können, während klassische Computer mit Bits arbeiten. So könnten spezielle Schwierigkeiten, zum Beispiel in der Kryptografie, Optimierung oder Materialwissenschaft, exponentiell schneller gelöst werden. Bereits werden erste hybride Systeme getestet, die klassische und Quantenarchitekturen miteinander kombinieren.

Ein weiterer Trend ist das automatisierte maschinelle Lernen (AutoML). Die Maschine übernimmt dabei selbst Aufgaben, die zuvor dem Data Scientist vorbehalten waren – wie die Auswahl geeigneter Algorithmen, das Tuning von Hyperparametern oder die Auswahl von Features. Dadurch werden die Eintrittshürden für KI-Projekte erheblich gesenkt und die Entwicklung marktfähiger Modelle beschleunigt.

Mit dem Aufkommen von KI-Technologien werden auch ethische und gesellschaftliche Fragestellungen verstärkt beachtet. Es wird zunehmend wichtig, eine KI-Governance zu entwickeln, die aus verbindlichen Regeln für den Einsatz künstlicher Intelligenz besteht. Aspekte wie Fairness, Transparenz, Nichtdiskriminierung, Erklärbarkeit und Rechenschaftspflicht fließen in die Systemarchitektur ein.

Globale Maßnahmen wie der AI Act der EU oder die UNESCO-Empfehlung zur KI-Ethisch setzen erste Standards. In Zukunft müssen Unternehmen beweisen, dass ihre Systeme nicht nur technisch einwandfrei, sondern auch gesellschaftlich verantwortungsvoll gestaltet sind.

Die Verbindung einer technologischen Vision mit automatisierter Entwicklung und einem ethischen Rahmenwerk kennzeichnet die nächste Evolutionsstufe von KI und HPC – mit Potenzial für eine echte Transformation in Wirtschaft, Wissenschaft und Gesellschaft.

Related Post

Penetrationstests im Fokus: Der Weg zu wirkungsvoller IT-Sicherheit

Die Zahl der Cyberangriffe steigt weltweit in alarmierendem Tempo. Immer wieder geraten Unternehmen, Behörden und…

Künstliche Intelligenz von OpenAI & Co. direkt per Mac-App nutzen

Künstliche Intelligenz (KI) ist mittlerweile kein ausschließliches Thema der Forschung mehr, sondern gehört zum Alltag…

OpenAI präsentiert ChatGPT: Verändert der innovative Study Mode die Art, wie wir lernen?

In den vergangenen Jahren hat die Digitalisierung das Bildungswesen grundlegend verändert. Klassenzimmer existieren nun virtuell,…