Sonstige Projekte
Projekte wählen
Die aktuellesten Projekte
29655 | Sonstige | remote Bayern
| Projekt Nr.: |
| 29655 |
| Region: |
| Bayern |
| Ort: |
| remote |
| Vertrag: |
| freiberuflich |
| Umfeld: |
| Sonstige |
| Kenntnisse: | Softwareentwickler (m/w/d) – Backend / Python |
| Tätigkeit: |
| Projektbeschreibung:
A) Technisches Umsetzungskonzept -Übersetzung der Business Requirements in ein technisches Zielbild -Definition von: -Systemarchitektur -Schnittstellen (REST) -Datenmodell (MS SQL) -Fehler- und Validierungslogik -Abnahmekriterien -Abstimmung der Schnittstellenanforderungen mit angrenzenden Systemen B) Backend-Entwicklung (FastAPI / REST) -Implementierung von REST-Endpunkten für: -Import, Übernahme und Validierung von Anlagendaten gemäß Lastenheft -Abbildung der Berechnungslogik für Schutzeinstellwerte -Bereitstellung der Daten für die Dokumenterstellung (Schutzeinstellblatt) Sicherstellung von: -Fehlerbehandlung -Logging -Status- und Prozessrückmeldungen C) Datenhaltung Datenverarbeitung (MS SQL) -Entwurf und Implementierung eines relationalen Datenmodells -Tabellarische Ablage -Versionierung und Änderbarkeit gemäß Vorgaben -Umsetzung der Datenaggregierung (ETL-/Importlogik) -Performance-Optimierung der Datenbankabfragen bei Bedarf D) Dokument-Output (Schutzeinstellblatt) -Implementierung einer technischen Service-Schnittstelle zur Erzeugung eines klassischen Dokuments (z. B. PDF oder DOCX) -Übergabe strukturierter Daten an das Dokument-Template gemäß Lastenheftvorgaben E) Qualität Abnahmefähigkeit -Umsetzung automatisierter Tests (Unit- und Integrationstests) -Sicherstellung reproduzierbarer Builds -Dokumentation der Schnittstellen (OpenAPI / Swagger) -Bereitstellung der vereinbarten Artefakte zur Abnahme -Defect-Behebung innerhalb der vereinbarten Gewährleistungs-/Nachbesserungsphase Ihr Profil: -Sehr gute Kenntnisse in Python -Fundierte Erfahrung mit FastAPI und REST-API-Design -Sehr gute Kenntnisse in MS SQL (Schema-Design, Performance-Optimierung) Erfahrung in: -Datenmodellierung -Datenaggregation / ETL -API-Validierung und Fehlerhandling -Erfahrung mit automatisierten Tests -Strukturierte, eigenverantwortliche und ergebnisorientierte Arbeitsweise -Erfahrung in der Umsetzung von Anforderungen auf Basis eines Lastenhefts Einsatzort: Regensburg Auslastung: 40h/Woche (100% remote) Anforderungen: Einsatzort: Regensburg Startdatum: 01.04.2026 Enddatum: 30.11.2026 |
| Branche: |
| Beginn: |
| 01.04.2026 |
| Projektdauer: |
| 30.11.2026 |
| Wenn Sie Ihre Profilnummer kennen, nutzen Sie bitte folgenden Button. |
29652 | Sonstige | remote Bundesweit
| Projekt Nr.: |
| 29652 |
| Region: |
| Bundesweit |
| Ort: |
| remote |
| Vertrag: |
| freiberuflich |
| Umfeld: |
| Sonstige |
| Kenntnisse: | DevOps Engineer (m/w) für GCP und ein Geospatial / Weather Data Engineer (m/w) für GEO Daten und Google Cloud Platform AI Devops |
| Tätigkeit: |
| Wir suchen für unsren Kunden zwei Positionen (gerne auch in einer Person vereint)
Es geht um den Aufbau einer Weather Data Pipeline für Energy Trading. gesucht wird ein DevOps Engineer für GCP und ein Geospatial / Weather Data Engineer (exotisch, aber hier unabdingbar) Anforderungen: 1. Core Cloud & Infrastruktur (GCP) Die Plattform wird auf GCP gehostet. Der Ingenieur benötigt nachweisliche Erfahrung im Aufbau von Hochleistungsrechnerumgebungen. • Compute Engine: Fachwissen in der Verwaltung von GPU-Instanzen (NVIDIA A100s). Muss Spot-/Preemptible-Lebenszyklen und Committed Use Discounts (CUDs) verstehen. • Speicherarchitektur: Möglichkeit, skalierbare Speicherhierarchien zu entwerfen. Erfahrung in der Verwaltung ausgeglichener persistenter Festplatten mit hohem I/O-Vorgang für GPU-Caching. Große Ausgabetensoren müssen zur Archivierung nahtlos zu GCS migriert werden. • Netzwerk und Sicherheit: Konfigurieren von VPCs, API-Gateways und IAM-Rollen basierend auf den Best Practices des Kunden. Dies gewährleistet den sicheren Datenabruf von externen APIs und die sichere Weiterleitung an nachgelagerte Anwendungen. 2. Datenverarbeitung & -formatierung: Python ist die obligatorische Programmiersprache für dieses Projekt. Der/Die Entwickler/in muss über fundierte Kenntnisse des wissenschaftlichen Python-Stacks verfügen. • Multidimensionale Datenverarbeitung: Expertenkenntnisse in xarray und numpy zur Bearbeitung massiver atmosphärischer Gitter. • Cloud-native Formate: Tiefes Verständnis des Zarr-Speicherformats. Optimierung von Chunking-Strategien für parallele Operationen auf GCS erforderlich. Erfahrung in der Konvertierung älterer Formate (GRIB, NetCDF) nach Zarr ist unerlässlich. • Paralleles Rechnen: Erfahrung mit Dask zur Verteilung speicherintensiver Aufgaben auf mehrere Kerne oder Knoten. • CUDA & Geschäftsintegration: Verwaltung von PyTorch/CUDA-Abhängigkeiten und Integration von Modellausgaben in SQL-Datenbanken. 3. Datenaufnahmepipelines: Das Projekt erfordert den konsistenten Abruf großer Datenmengen aus externen Quellen. • API-Integration: Entwicklung fehlertoleranter Fetcher für AWS S3 (GFS), ECMWF Open Data (IFS) und Copernicus CDS (ERA5). • Datentransformation: Erstellung von Interpolationsskripten zur Ausrichtung eingehender GCM-Gitter an exakte 0,25-Grad-äquirektanguläre Gitter. • Lexikon-Mapping: Standardisierung von Variablennamen verschiedener Anbieter gemäß den NVIDIA Earth-2-Standards (z. B. t2m, u100, v100). 4. Orchestrierung & Scheduling: Das System muss autonom laufen, um täglich Handelssignale bereitzustellen. • Apache Airflow: Umfassende Erfahrung in der Erstellung von DAGs zur Orchestrierung der gesamten Pipeline. • Betriebssicherheit: Implementierung strikter Fehlerbehandlung, automatischer Wiederholungsversuche und Alarmierungsmechanismen gemäß den Best Practices des Kunden. • Ereignisgesteuerte Architektur: Entwicklung von Pipelines zur sofortigen Auslösung des Analog-Matchings nach Generierung des NVIDIA Earth-2-Ausgabetensors. Projektsprache: Deutsch Umfang / Auslastung: 75 PT |
| Branche: |
| Beginn: |
| 30.03.2026 |
| Projektdauer: |
| 17.07.2026 |
| Wenn Sie Ihre Profilnummer kennen, nutzen Sie bitte folgenden Button. |
29638 | Sonstige | Wien u. remote Europa
| Projekt Nr.: |
| 29638 |
| Region: |
| Europa |
| Ort: |
| Wien u. remote |
| Vertrag: |
| freiberuflich |
| Umfeld: |
| Sonstige |
| Kenntnisse: | Requirements Engineer (m/w/d) Digitalisierung |
| Tätigkeit: |
| · Zertifizierung zum Requirements Engineer: DPRE-Zertifikat des IREB
· Grundverständnis von Projektmanagement und Betriebswirtschaft · Modellierungskenntnisse in BPMN 2.0, BPMS, UML, etc · Mindestens 3 Jahre Berufserfahrung im IT-Anforderungsmanagement bei klassischen Projekten (in Form von Erstellung von z.B. Lastenheften/ Leistungskataloge) bzw. bei agilen Projekten mit Hilfe agiler Methoden (z.B. Epics, User Stories) · Zertifizierung agile Methoden Requirements Engineer: RE@Agile Prime (IREB) · Grundkenntnisse über Managementsysteme, Prozessmanagement, Risikomanagement, IKS, QM inkl gängiger Normen · Erfahrung mit bzw. Grundverständnis für Geschäftsprozessmanagement · Kenntnisse von mindestens drei der folgenden Softwaresysteme Atlassian Confluence, Atlassian Jira, Atlassian BItbucket, Atlassian Bugzilla, BMC Remediy IT Service Management · Kenntnisse und Erfahrung in fachlicher Datenmodellierung in Hinblick auf die Geschäftsobjekte des Kunden · SQL Grundkenntnisse für die Datenanalyse · Kenntnisse und Erfahrung der agilen Methoden · Praktische Erfahrung mit zumindest zwei unterschiedlichen Methoden der Lösungsfindung (z.B. Design Thinking, Softwarearchäologie) · Praktische Erfahrung in der Analyse datenzentrierter Anwendungen in IT-Projekten im Kontext von Digitalisierung Projektsprache: Deutsch Auslastung: fulltime |
| Branche: |
| Beginn: |
| 04.05.2026 |
| Projektdauer: |
| 31.12.2027 |
| Wenn Sie Ihre Profilnummer kennen, nutzen Sie bitte folgenden Button. |
IT-Projekte für Freelancer und Freiberufler bei Project-Pool.de
Finden Sie das passende Projekt für Sie, in Ihrer Umgebung – passend zur Ihrer Qualifikation.