Sonstige Projekte

Projekte wählen


Die aktuellesten Projekte

29655 | Sonstige | remote Bayern

Projekt Nr.:
29655
Region:
Bayern
Ort:
remote
Vertrag:
freiberuflich
Umfeld:
Sonstige
Kenntnisse:
Softwareentwickler (m/w/d) – Backend / Python
Tätigkeit:
Projektbeschreibung:
A) Technisches Umsetzungskonzept
-Übersetzung der Business Requirements in ein technisches Zielbild
-Definition von:
-Systemarchitektur
-Schnittstellen (REST)
-Datenmodell (MS SQL)
-Fehler- und Validierungslogik
-Abnahmekriterien
-Abstimmung der Schnittstellenanforderungen mit angrenzenden Systemen

B) Backend-Entwicklung (FastAPI / REST)
-Implementierung von REST-Endpunkten für:
-Import, Übernahme und Validierung von Anlagendaten gemäß Lastenheft
-Abbildung der Berechnungslogik für Schutzeinstellwerte
-Bereitstellung der Daten für die Dokumenterstellung (Schutzeinstellblatt)

Sicherstellung von:
-Fehlerbehandlung
-Logging
-Status- und Prozessrückmeldungen

C) Datenhaltung Datenverarbeitung (MS SQL)
-Entwurf und Implementierung eines relationalen Datenmodells
-Tabellarische Ablage
-Versionierung und Änderbarkeit gemäß Vorgaben
-Umsetzung der Datenaggregierung (ETL-/Importlogik)
-Performance-Optimierung der Datenbankabfragen bei Bedarf

D) Dokument-Output (Schutzeinstellblatt)
-Implementierung einer technischen Service-Schnittstelle zur Erzeugung eines klassischen Dokuments (z. B. PDF oder DOCX)
-Übergabe strukturierter Daten an das Dokument-Template gemäß Lastenheftvorgaben

E) Qualität Abnahmefähigkeit
-Umsetzung automatisierter Tests (Unit- und Integrationstests)
-Sicherstellung reproduzierbarer Builds
-Dokumentation der Schnittstellen (OpenAPI / Swagger)
-Bereitstellung der vereinbarten Artefakte zur Abnahme
-Defect-Behebung innerhalb der vereinbarten Gewährleistungs-/Nachbesserungsphase

Ihr Profil:
-Sehr gute Kenntnisse in Python
-Fundierte Erfahrung mit FastAPI und REST-API-Design
-Sehr gute Kenntnisse in MS SQL (Schema-Design, Performance-Optimierung)

Erfahrung in:
-Datenmodellierung
-Datenaggregation / ETL
-API-Validierung und Fehlerhandling
-Erfahrung mit automatisierten Tests
-Strukturierte, eigenverantwortliche und ergebnisorientierte Arbeitsweise
-Erfahrung in der Umsetzung von Anforderungen auf Basis eines Lastenhefts

Einsatzort: Regensburg

Auslastung: 40h/Woche (100% remote)

Anforderungen:

Einsatzort: Regensburg

Startdatum: 01.04.2026

Enddatum: 30.11.2026

Branche:
Beginn:
01.04.2026
Projektdauer:
30.11.2026
Wenn Sie Ihre Profilnummer kennen, nutzen Sie bitte folgenden Button.

29652 | Sonstige | remote Bundesweit

Projekt Nr.:
29652
Region:
Bundesweit
Ort:
remote
Vertrag:
freiberuflich
Umfeld:
Sonstige
Kenntnisse:
DevOps Engineer (m/w) für GCP und ein Geospatial / Weather Data Engineer (m/w) für GEO Daten und Google Cloud Platform AI Devops
Tätigkeit:
Wir suchen für unsren Kunden zwei Positionen (gerne auch in einer Person vereint)

Es geht um den Aufbau einer Weather Data Pipeline für Energy Trading.
gesucht wird ein DevOps Engineer für GCP und ein Geospatial / Weather Data Engineer (exotisch, aber hier unabdingbar)

Anforderungen:
1. Core Cloud & Infrastruktur (GCP)
Die Plattform wird auf GCP gehostet. Der Ingenieur benötigt nachweisliche Erfahrung im Aufbau von Hochleistungsrechnerumgebungen.
• Compute Engine: Fachwissen in der Verwaltung von GPU-Instanzen (NVIDIA A100s). Muss Spot-/Preemptible-Lebenszyklen und Committed Use Discounts (CUDs) verstehen.
• Speicherarchitektur: Möglichkeit, skalierbare Speicherhierarchien zu entwerfen. Erfahrung in der Verwaltung ausgeglichener persistenter Festplatten mit hohem I/O-Vorgang für GPU-Caching. Große Ausgabetensoren müssen zur Archivierung nahtlos zu GCS migriert werden.
• Netzwerk und Sicherheit: Konfigurieren von VPCs, API-Gateways und IAM-Rollen basierend auf den Best Practices des Kunden. Dies gewährleistet den sicheren Datenabruf von externen APIs und die sichere Weiterleitung an nachgelagerte Anwendungen.

2. Datenverarbeitung & -formatierung:
Python ist die obligatorische Programmiersprache für dieses Projekt. Der/Die Entwickler/in muss über fundierte Kenntnisse des wissenschaftlichen Python-Stacks verfügen.

• Multidimensionale Datenverarbeitung: Expertenkenntnisse in xarray und numpy zur Bearbeitung massiver atmosphärischer Gitter.
• Cloud-native Formate: Tiefes Verständnis des Zarr-Speicherformats. Optimierung von Chunking-Strategien für parallele Operationen auf GCS erforderlich. Erfahrung in der Konvertierung älterer Formate (GRIB, NetCDF) nach Zarr ist unerlässlich.
• Paralleles Rechnen: Erfahrung mit Dask zur Verteilung speicherintensiver Aufgaben auf mehrere Kerne oder Knoten.
• CUDA & Geschäftsintegration: Verwaltung von PyTorch/CUDA-Abhängigkeiten und Integration von Modellausgaben in SQL-Datenbanken.

3. Datenaufnahmepipelines:
Das Projekt erfordert den konsistenten Abruf großer Datenmengen aus externen Quellen.

• API-Integration: Entwicklung fehlertoleranter Fetcher für AWS S3 (GFS), ECMWF Open Data (IFS) und Copernicus CDS (ERA5).
• Datentransformation: Erstellung von Interpolationsskripten zur Ausrichtung eingehender GCM-Gitter an exakte 0,25-Grad-äquirektanguläre Gitter.
• Lexikon-Mapping: Standardisierung von Variablennamen verschiedener Anbieter gemäß den NVIDIA Earth-2-Standards (z. B. t2m, u100, v100).

4. Orchestrierung & Scheduling:
Das System muss autonom laufen, um täglich Handelssignale bereitzustellen.

• Apache Airflow: Umfassende Erfahrung in der Erstellung von DAGs zur Orchestrierung der gesamten Pipeline.
• Betriebssicherheit: Implementierung strikter Fehlerbehandlung, automatischer Wiederholungsversuche und Alarmierungsmechanismen gemäß den Best Practices des Kunden.
• Ereignisgesteuerte Architektur: Entwicklung von Pipelines zur sofortigen Auslösung des Analog-Matchings nach Generierung des NVIDIA Earth-2-Ausgabetensors.

Projektsprache: Deutsch

Umfang / Auslastung: 75 PT
Branche:
Beginn:
30.03.2026
Projektdauer:
17.07.2026
Wenn Sie Ihre Profilnummer kennen, nutzen Sie bitte folgenden Button.

29638 | Sonstige | Wien u. remote Europa

Projekt Nr.:
29638
Region:
Europa
Ort:
Wien u. remote
Vertrag:
freiberuflich
Umfeld:
Sonstige
Kenntnisse:
Requirements Engineer (m/w/d) Digitalisierung
Tätigkeit:
· Zertifizierung zum Requirements Engineer: DPRE-Zertifikat des IREB
· Grundverständnis von Projektmanagement und Betriebswirtschaft
· Modellierungskenntnisse in BPMN 2.0, BPMS, UML, etc
· Mindestens 3 Jahre Berufserfahrung im IT-Anforderungsmanagement bei klassischen Projekten (in Form von Erstellung von z.B. Lastenheften/ Leistungskataloge) bzw. bei agilen Projekten mit Hilfe agiler Methoden (z.B. Epics, User Stories)
· Zertifizierung agile Methoden Requirements Engineer: RE@Agile Prime (IREB)
· Grundkenntnisse über Managementsysteme, Prozessmanagement, Risikomanagement, IKS, QM inkl gängiger Normen
· Erfahrung mit bzw. Grundverständnis für Geschäftsprozessmanagement
· Kenntnisse von mindestens drei der folgenden Softwaresysteme Atlassian Confluence, Atlassian Jira, Atlassian BItbucket, Atlassian Bugzilla, BMC Remediy IT Service Management
· Kenntnisse und Erfahrung in fachlicher Datenmodellierung in Hinblick auf die Geschäftsobjekte des Kunden
· SQL Grundkenntnisse für die Datenanalyse
· Kenntnisse und Erfahrung der agilen Methoden
· Praktische Erfahrung mit zumindest zwei unterschiedlichen Methoden der Lösungsfindung (z.B. Design Thinking, Softwarearchäologie)
· Praktische Erfahrung in der Analyse datenzentrierter Anwendungen in IT-Projekten im Kontext von Digitalisierung

Projektsprache: Deutsch

Auslastung: fulltime
Branche:
Beginn:
04.05.2026
Projektdauer:
31.12.2027
Wenn Sie Ihre Profilnummer kennen, nutzen Sie bitte folgenden Button.


IT-Projekte für Freelancer und Freiberufler bei Project-Pool.de

Finden Sie das passende Projekt für Sie, in Ihrer Umgebung – passend zur Ihrer Qualifikation.