Zum Hauptinhalt springen

Kurzanleitung zur Einrichtung

Bringen Sie Eaternity Forecast in vier einfachen Schritten in Ihrer Kueche zum Laufen. Diese Anleitung behandelt den Einrichtungsprozess vom ersten Kontakt bis zum Erhalt Ihrer ersten Prognosen.

Ueberblick

Zeitplan

PhaseDauerHauptaktivitaeten
Einrichtung1-2 WochenIntegration, Datenimport, Konfiguration
Training1-2 WochenNeuronales Netzwerk lernt Ihre Muster
Test1 WochePrognosen validieren, Feedback sammeln
ProduktionLaufendTaegliche Prognosen fuer die Planung

Gesamtzeit bis zur ersten Prognose: 2-4 Wochen je nach Integrationsmethode

Voraussetzungen

Stellen Sie vor dem Start sicher, dass Sie:

  • Ihr POS/ERP-System und die Datenzugriffsmethode identifiziert haben
  • Eine Kontaktperson im Team benannt haben
  • Mindestens 30 Tage historische Verkaufsdaten verfuegbar haben
  • Eaternity kontaktiert haben, um das Onboarding zu beginnen

Schritt 1: Systemintegration

Waehlen Sie Ihre Integrationsmethode basierend auf Ihrer technischen Ausstattung.

Option A: Necta-Integration (Schnellste)

Geeignet fuer: Bestehende Necta-Kunden

Einrichtungsprozess:

  1. Necta-Kundenbetreuer kontaktieren

    E-Mail-Betreff: "Eaternity Forecast Integration aktivieren"
    Inhalt: Ihr Firmenname und Necta-Konto-ID
  2. Eaternity-Konfiguration

    • Unser Team erhaelt Benachrichtigung von Necta
    • Wir konfigurieren die Verbindung (keine Aktion von Ihnen erforderlich)
    • Historische Daten werden automatisch aus der Necta-Datenbank importiert
  3. Verifizierung

    • Sie erhalten eine Bestaetigungs-E-Mail, wenn die Verbindung aktiv ist
    • Melden Sie sich bei Necta an, um zu ueberpruefen, ob das Forecast-Modul erscheint
    • Importstatus der historischen Daten im Dashboard sichtbar

Zeitrahmen: 3-5 Werktage

Option B: Direkte API-Integration

Geeignet fuer: Individuelle POS/ERP-Systeme mit technischen Ressourcen

Einrichtungsprozess:

  1. API-Dokumentation lesen

  2. Datenendpunkte implementieren

    Erstellen Sie Endpunkte fuer:

    Verkaufsdatenexport (Erforderlich):

    POST /api/forecast/sales
    {
    "date": "2024-01-15",
    "items": [
    {
    "name": "Pasta Carbonara",
    "quantity": 45,
    "service_period": "lunch",
    "category": "Main Course"
    }
    ]
    }

    Historischer Datenimport (Ersteinrichtung):

    POST /api/forecast/sales/bulk
    {
    "start_date": "2023-10-01",
    "end_date": "2024-01-15",
    "items": [...]
    }
  3. Authentifizierung einrichten

    Mit dem Eaternity-Team koordinieren:

    • API-Anmeldedaten erhalten
    • OAuth 2.0 oder API-Schluessel-Authentifizierung konfigurieren
    • Verbindung mit Sandbox-Umgebung testen
  4. Testen

    Integration validieren:

    # Authentifizierung testen
    curl -X POST https://api.eaternity.org/v1/forecast/auth \
    -H "Content-Type: application/json" \
    -d '{"api_key": "your_api_key"}'

    # Verkaufsdatenuebermittlung testen
    curl -X POST https://api.eaternity.org/v1/forecast/sales \
    -H "Authorization: Bearer your_token" \
    -H "Content-Type: application/json" \
    -d '{"date": "2024-01-15", "items": [...]}'
  5. Historischen Datenimport

    Massenimport Ihrer historischen Daten:

    • Verkaufsdaten aus Ihrem POS/ERP exportieren (CSV, JSON oder Excel)
    • Mit bereitgestellten Skripten in das erforderliche Format umwandeln
    • Ueber Massenimport-Endpunkt einreichen
    • Importfortschritt im Dashboard ueberwachen

Zeitrahmen: 2-4 Wochen je nach Komplexitaet

Option C: Manueller Upload

Geeignet fuer: Ersteinrichtungsphase oder kleinere Betriebe

Einrichtungsprozess:

  1. Datenvorlage herunterladen

    Vorlage beim Eaternity-Support anfordern:

    • Excel-Tabelle mit erforderlichen Feldern
    • Beispieldaten als Referenz
    • Validierungsformeln zur Pruefung der Datenqualitaet
  2. Verkaufsdaten aus POS exportieren

    Historische Daten extrahieren:

    • Mindestens 30 Tage (90+ Tage empfohlen)
    • Mengen auf Artikelebene, nicht nur Umsatz
    • Zeitstempel fuer jede Transaktion
  3. Daten formatieren

    Erforderliche Spalten:

    date | item_name | quantity_sold | service_period | price | category

    Beispiel:

    2024-01-15,Pasta Carbonara,45,lunch,14.50,Main Course
    2024-01-15,Caesar Salad,32,lunch,9.00,Starter
    2024-01-15,Grilled Salmon,28,lunch,18.50,Main Course
  4. Im Portal hochladen

    • Auf sicheres Upload-Portal zugreifen (Link wird vom Koordinator bereitgestellt)
    • Formatierte CSV/Excel-Datei hochladen
    • Datenvorschau vor Bestaetigung ueberpruefen
    • Bestaetigungs-E-Mail erhalten, wenn Verarbeitung abgeschlossen
  5. Wiederkehrende Uploads einrichten

    Fuer laufende Prognosen:

    • Woechentlicher Upload-Zeitplan (Montag empfohlen)
    • Verkaufsdaten der Vorwoche exportieren
    • Per Portal oder SFTP hochladen
    • 15-30 Minuten pro Woche

Zeitrahmen: 1 Woche fuer Ersteinrichtung

Schritt 2: Historischer Datenimport

Datenvorbereitung

Datenqualitaet ueberpruefen:

Fuehren Sie diese Pruefungen vor dem Import durch:

Vollstaendigkeitspruefung:

  • Keine fehlenden Daten im Zeitraum
  • Alle Menuepunkte einheitlich erfasst
  • Servicezeiten klar gekennzeichnet

Genauigkeitspruefung:

  • Mengen entsprechen tatsaechlich servierten Portionen
  • Zeitstempel sind korrekt (Zeitzonen beachten)
  • Keine doppelten Eintraege fuer gleichen Artikel/Datum

Konsistenzpruefung:

  • Gleiche Artikelnamen ueber alle Daten
  • Standardisierte Kategorienamen
  • Einheitliche Bezeichnungen der Servicezeiten

Beispiel Qualitaetspruefung:

import pandas as pd

# Daten laden
df = pd.read_csv('sales_data.csv')

# Auf fehlende Daten pruefen
date_range = pd.date_range(start=df['date'].min(), end=df['date'].max())
missing_dates = date_range.difference(pd.to_datetime(df['date']))
print(f"Fehlende Daten: {missing_dates}")

# Auf inkonsistente Artikelnamen pruefen
item_variations = df.groupby('item_name')['item_name'].count()
print(f"Einzigartige Artikel gesamt: {len(item_variations)}")

# Auf doppelte Eintraege pruefen
duplicates = df[df.duplicated(['date', 'item_name', 'service_period'])]
print(f"Doppelte Eintraege: {len(duplicates)}")

Importprozess

  1. Historische Daten einreichen

    Ueber Ihre gewaehlte Methode:

    • Necta: Automatischer Import aus vorhandenen Daten
    • API: Massenimport-Endpunkt
    • Manuell: Upload-Portal
  2. Datenvalidierung

    Eaternity-Team prueft:

    • Einhaltung des Datenformats
    • Qualitaetsmetriken
    • Vollstaendigkeitsbewertung
    • Anomalien oder Probleme
  3. Validierungsbericht erhalten

    Innerhalb von 2 Werktagen:

    • Datenqualitaetsbewertung
    • Gefundene Probleme und Empfehlungen
    • Freigabe zum Fortfahren oder Korrekturanforderungen
  4. Korrekturen (falls erforderlich)

    Probleme beheben:

    • Daten nach Feedback neu formatieren
    • Fehlende Informationen ergaenzen
    • Inkonsistenzen beheben
    • Erneut zur Validierung einreichen

Erwartetes Datenvolumen

Minimum fuer Basistraining:

  • 30 Tage historische Daten
  • Alle Menuepunkte erfasst
  • Durchschnittlich mindestens 50 Gedecke/Tag

Empfohlen fuer optimales Training:

  • 90+ Tage historische Daten
  • Saisonale Variation enthalten
  • Besondere Ereignisse und Feiertage eingeschlossen

Ideal fuer hoechste Genauigkeit:

  • 180+ Tage (6 Monate)
  • Vollstaendiger Saisonzyklus
  • Wetterdaten verfuegbar
  • Veranstaltungskalender eingeschlossen

Schritt 3: Modelltraining

Trainingsprozess

Sobald historische Daten importiert sind, beginnt das neuronale Netzwerk-Training automatisch.

Phase 1: Erste Mustererkennung (Tage 1-3)

Das Modell lernt:

  • Grundlegende Tagesmuster
  • Beliebtheitstrends der Artikel
  • Unterschiede zwischen Servicezeiten
  • Wochentag-Variationen

Phase 2: Erweitertes Lernen (Tage 4-7)

Das Modell identifiziert:

  • Wochen- und Monatszyklen
  • Saisonale Trends (bei ausreichenden Daten)
  • Wetterkorrelationen
  • Auswirkungsmuster von Ereignissen

Phase 3: Optimierung (Tage 8-14)

Das Modell verfeinert:

  • Prognosegenauigkeit
  • Kalibrierung der Konfidenzintervalle
  • Ausreisserbehandlung
  • Anpassung an Menueanderungen

Training ueberwachen

Fortschritts-Dashboard:

Zugriff auf Trainingsstatus ueber:

  • E-Mail-Updates (taegliche Zusammenfassung)
  • Dashboard-Oberflaeche (Echtzeit)
  • Slack-Benachrichtigungen (optional)

Angezeigte Kennzahlen:

  • Trainingsfortschritt in Prozent
  • Aktuelle Genauigkeit auf Validierungsdaten
  • Voraussichtliches Abschlussdatum
  • Probleme oder Warnungen

Beispiel Trainingsbericht:

Trainingsfortschritt: 65% abgeschlossen
Aktueller MAPE: 18,2% (Ziel: weniger als 15%)
Trainierte Artikel: 42/65
Voraussichtlicher Abschluss: 2024-01-25
Status: Im Plan

Was waehrend des Trainings passiert

Sie muessen nichts tun, aber verstehen Sie, was passiert:

  1. Datenvorverarbeitung

    • Normalisierung der Mengen
    • Merkmalsextraktion (Wochentag, Saisonalitaet, Trends)
    • Integration von Wetterdaten
    • Abgleich mit Veranstaltungskalender
  2. Modellarchitektur-Setup

    • Transformer-Schichten konfiguriert
    • Aufmerksamkeitsmechanismen initialisiert
    • Zeitliche Kodierung etabliert
    • Mehrschichtige Verarbeitung vorbereitet
  3. Trainingsiterationen

    • Modell lernt aus historischen Mustern
    • Validierung gegen zurueckgehaltene Daten
    • Hyperparameter-Optimierung
    • Regularisierung zur Vermeidung von Ueberanpassung
  4. Genauigkeitsvalidierung

    • Vergleich mit menschlicher Prognose als Referenz
    • Kalibrierung der Konfidenzintervalle
    • Fehleranalyse und Mustererkennung
    • Endgueltige Modellauswahl

Schritt 4: Prognosen starten

Erste Prognosen

Zeitrahmen: 2-4 Wochen nach Einrichtungsbeginn

Benachrichtigung:

  • E-Mail-Benachrichtigung, wenn erste Prognosen bereit sind
  • Dashboard zeigt Status "Aktiv"
  • Prognosen ueber API oder Oberflaeche verfuegbar

Erster Prognosesatz:

  • Naechste 7 Tage prognostiziert
  • Alle aktiven Menuepunkte enthalten
  • Konfidenzintervalle fuer jede Prognose
  • Historische Genauigkeitsmetriken angezeigt

Auf Prognosen zugreifen

Ueber Necta-Oberflaeche (Necta-Kunden):

  1. Bei Necta-Planungsmodul anmelden
  2. Zu "Bedarfsprognose"-Bereich navigieren
  3. Taegliche Prognosen nach Artikel anzeigen
  4. In Planungstabellen exportieren

Ueber API (Individuelle Integrationen):

# Prognosen fuer bestimmtes Datum abrufen
curl -X GET "https://api.eaternity.org/v1/forecast/predictions?date=2024-01-20" \
-H "Authorization: Bearer your_token"

# Antwort
{
"date": "2024-01-20",
"day_of_week": "Saturday",
"predictions": [
{
"item_name": "Pasta Carbonara",
"predicted_quantity": 52,
"confidence_interval": {
"lower": 45,
"upper": 59
},
"accuracy_last_30_days": 92.3
}
]
}

Ueber Dashboard (Manueller Zugriff):

  1. Im Forecast-Dashboard anmelden
  2. Zeitraum auswaehlen
  3. Prognosetabelle anzeigen
  4. CSV-Export herunterladen

Ihre ersten Prognosen verstehen

Prognosekomponenten:

Jede Prognose enthaelt:

  1. Prognostizierte Menge: Wahrscheinlichste Anzahl Portionen
  2. Konfidenzintervall: Bereich des erwarteten Bedarfs (untere bis obere Grenze)
  3. Genauigkeitsmetrik: Wie zuverlaessig Prognosen zuletzt waren
  4. Faktoren: Haupteinflussfaktoren (Wetter, Wochentag, Ereignisse)

Beispielprognose:

Artikel: Pasta Carbonara
Datum: Samstag, 20. Januar 2024
Prognostizierte Menge: 52 Portionen

Konfidenzintervall: 45-59 Portionen
- Untere Grenze (10. Perzentil): 45
- Obere Grenze (90. Perzentil): 59
- Konfidenzniveau: 80%

Historische Genauigkeit: 92,3% (letzte 30 Tage)

Hauptfaktoren:
- Wochenende (Samstag): +20% vs. Wochentag-Durchschnitt
- Temperatur: 8°C (normaler Winterbedarf)
- Keine besonderen Ereignisse erkannt

Mehr ueber Konfidenzintervalle erfahren

Integration in den taeglichen Arbeitsablauf

Empfohlener Ablauf:

  1. Morgendliche Ueberpruefung (5-10 Minuten)

    • Heutigen Endabsatz mit gestriger Prognose vergleichen
    • Prognose fuer morgen pruefen
    • Ueberraschende Abweichungen notieren
  2. Planung (15-20 Minuten)

    • Prognosen fuer Zutatenbestellung nutzen
    • Zubereitungsmengen basierend auf Prognosen anpassen
    • Konfidenzintervalle fuer Pufferplanung beruecksichtigen
  3. Feedback (optional, 2-3 Minuten)

    • Uebersehene Faktoren notieren (unerwartete Ereignisse, Wetteraenderungen)
    • Prognosefehler >30% melden, um Modell zu verbessern
    • Feedback ueber Dashboard oder E-Mail einreichen

Siehe Implementierungsleitfaden fuer detaillierten Arbeitsablauf

Validierungs- und Testphase

Woche 1: Beobachtungsmodus

Ziel: Verstehen, wie Prognosen im Vergleich zu Ihrer aktuellen Methode abschneiden

Aktivitaeten:

  • Taegliche Prognosen pruefen, aber aktuellen Prozess noch nicht aendern
  • Forecast-Prognosen mit Ihren bestehenden Prognosen vergleichen
  • Muster oder Ueberraschungen notieren
  • Prognosegenauigkeit verfolgen

Zu verfolgende Metriken:

| Artikel       | Ist  | Ihre Prognose | KI-Prognose | Ihr Fehler | KI-Fehler |
|---------------|------|---------------|-------------|------------|-----------|
| Pasta Carb. | 48 | 55 | 52 | +14,6% | +8,3% |
| Caesar Salad | 30 | 28 | 31 | -6,7% | +3,3% |

Woche 2: Hybridansatz

Ziel: Prognosen schrittweise in die Planung einbeziehen

Aktivitaeten:

  • Prognosen fuer 25-50% der Menuepunkte verwenden
  • Manuelle Prognosen zunaechst fuer wichtige Artikel beibehalten
  • Ergebnisse zwischen manueller und KI-Prognose vergleichen
  • Vertrauen in Prognosegenauigkeit aufbauen

Teamschulung:

  • Konfidenzintervalle mit Kuechenpersonal besprechen
  • Umgang mit oberen/unteren Grenzen diskutieren
  • Anpassung fuer bekannte Faktoren ueben, die nicht in Daten enthalten sind

Woche 3-4: Vollstaendige Einfuehrung

Ziel: Prognosen fuer alle Menuepunkte nutzen

Aktivitaeten:

  • Prognosen fuer taegliche Planung verwenden
  • Konfidenzintervalle fuer Pufferentscheidungen nutzen
  • Tatsaechliche Abfallreduzierung verfolgen
  • Kosteneinsparungen berechnen

Erfolgsindikatoren:

  • Reduzierte Ueberproduktion
  • Servicequalitaet aufrechterhalten (keine Ausfaelle)
  • Zeitersparnis gegenueber manueller Prognose
  • Teamvertrauen in Systemnutzung

Fehlerbehebung bei Einrichtungsproblemen

ProblemSchnelle Loesung
Datenimport schlaegt fehlUTF-8-Kodierung pruefen, YYYY-MM-DD-Daten, keine leeren Zeilen
API-Authentifizierung schlaegt fehlAPI-Schluessel auf Leerzeichen pruefen, HTTPS verwenden
Prognosen scheinen ungenau30+ Tage Daten sicherstellen, 2 Wochen Training abwarten
Necta-Integration erscheint nichtCache leeren, Modulaktivierung mit Necta ueberpruefen

Fuer detaillierte Loesungen siehe Fehlerbehebung bei Integrationen.

Hilfe erhalten

E-Mail: forecast@eaternity.org

ProblemtypAntwortzeit
Kritisch (System ausgefallen)4 Stunden
Integrationsprobleme24 Stunden
Daten-/Funktionsfragen48 Stunden - 1 Woche

Checkliste: Einrichtung abgeschlossen

Integration

  • POS/ERP-Verbindung hergestellt
  • Authentifizierung konfiguriert und getestet
  • Datenfluss verifiziert

Historische Daten

  • Mindestens 30 Tage importiert
  • Datenvalidierung bestanden
  • Qualitaetsbewertung >80%

Training

  • Neuronales Netzwerk-Training abgeschlossen (100%)
  • Validierungsgenauigkeit erreicht Ziele
  • Alle Menuepunkte trainiert

Prognosen

  • Erste Prognosen erhalten
  • Team kann ueber Oberflaeche oder API zugreifen
  • Konfidenzintervalle verstanden

Teambereitschaft

  • Kontaktperson geschult
  • Kuechenpersonal ueber Prognosen informiert
  • Workflow-Integration geplant
  • Feedback-Prozess etabliert

Naechste Schritte

Nach Abschluss der Einrichtung:

  1. Taegliche Nutzung beginnen

    • Prognosen in Planungsworkflow integrieren
    • Genauigkeit und Lebensmittelabfallreduzierung verfolgen
    • Probleme oder unerwartete Ergebnisse melden
  2. Feedback geben

    • Erstes monatliches Gespraech planen
    • Erste Beobachtungen und Fragen teilen
    • Verbesserungen oder Funktionswuensche vorschlagen
  3. Nutzung optimieren

  4. Leistung ueberwachen

    • Kosteneinsparungen durch Abfallreduzierung verfolgen
    • Zeitersparnis gegenueber manueller Prognose messen
    • Erfolgsgeschichten fuer Fallstudie dokumentieren

Siehe auch