Kurzanleitung zur Einrichtung
Bringen Sie Eaternity Forecast in vier einfachen Schritten in Ihrer Kueche zum Laufen. Diese Anleitung behandelt den Einrichtungsprozess vom ersten Kontakt bis zum Erhalt Ihrer ersten Prognosen.
Ueberblick
Zeitplan
| Phase | Dauer | Hauptaktivitaeten |
|---|---|---|
| Einrichtung | 1-2 Wochen | Integration, Datenimport, Konfiguration |
| Training | 1-2 Wochen | Neuronales Netzwerk lernt Ihre Muster |
| Test | 1 Woche | Prognosen validieren, Feedback sammeln |
| Produktion | Laufend | Taegliche Prognosen fuer die Planung |
Gesamtzeit bis zur ersten Prognose: 2-4 Wochen je nach Integrationsmethode
Voraussetzungen
Stellen Sie vor dem Start sicher, dass Sie:
- Ihr POS/ERP-System und die Datenzugriffsmethode identifiziert haben
- Eine Kontaktperson im Team benannt haben
- Mindestens 30 Tage historische Verkaufsdaten verfuegbar haben
- Eaternity kontaktiert haben, um das Onboarding zu beginnen
Schritt 1: Systemintegration
Waehlen Sie Ihre Integrationsmethode basierend auf Ihrer technischen Ausstattung.
Option A: Necta-Integration (Schnellste)
Geeignet fuer: Bestehende Necta-Kunden
Einrichtungsprozess:
-
Necta-Kundenbetreuer kontaktieren
E-Mail-Betreff: "Eaternity Forecast Integration aktivieren"
Inhalt: Ihr Firmenname und Necta-Konto-ID -
Eaternity-Konfiguration
- Unser Team erhaelt Benachrichtigung von Necta
- Wir konfigurieren die Verbindung (keine Aktion von Ihnen erforderlich)
- Historische Daten werden automatisch aus der Necta-Datenbank importiert
-
Verifizierung
- Sie erhalten eine Bestaetigungs-E-Mail, wenn die Verbindung aktiv ist
- Melden Sie sich bei Necta an, um zu ueberpruefen, ob das Forecast-Modul erscheint
- Importstatus der historischen Daten im Dashboard sichtbar
Zeitrahmen: 3-5 Werktage
Option B: Direkte API-Integration
Geeignet fuer: Individuelle POS/ERP-Systeme mit technischen Ressourcen
Einrichtungsprozess:
-
API-Dokumentation lesen
- Leitfaden zur benutzerdefinierten API-Integration lesen
- API v1 Forecast-Endpunkte ueberpruefen
- Authentifizierungsanforderungen verstehen (OAuth 2.0 oder API-Schluessel)
-
Datenendpunkte implementieren
Erstellen Sie Endpunkte fuer:
Verkaufsdatenexport (Erforderlich):
POST /api/forecast/sales
{
"date": "2024-01-15",
"items": [
{
"name": "Pasta Carbonara",
"quantity": 45,
"service_period": "lunch",
"category": "Main Course"
}
]
}Historischer Datenimport (Ersteinrichtung):
POST /api/forecast/sales/bulk
{
"start_date": "2023-10-01",
"end_date": "2024-01-15",
"items": [...]
} -
Authentifizierung einrichten
Mit dem Eaternity-Team koordinieren:
- API-Anmeldedaten erhalten
- OAuth 2.0 oder API-Schluessel-Authentifizierung konfigurieren
- Verbindung mit Sandbox-Umgebung testen
-
Testen
Integration validieren:
# Authentifizierung testen
curl -X POST https://api.eaternity.org/v1/forecast/auth \
-H "Content-Type: application/json" \
-d '{"api_key": "your_api_key"}'
# Verkaufsdatenuebermittlung testen
curl -X POST https://api.eaternity.org/v1/forecast/sales \
-H "Authorization: Bearer your_token" \
-H "Content-Type: application/json" \
-d '{"date": "2024-01-15", "items": [...]}' -
Historischen Datenimport
Massenimport Ihrer historischen Daten:
- Verkaufsdaten aus Ihrem POS/ERP exportieren (CSV, JSON oder Excel)
- Mit bereitgestellten Skripten in das erforderliche Format umwandeln
- Ueber Massenimport-Endpunkt einreichen
- Importfortschritt im Dashboard ueberwachen
Zeitrahmen: 2-4 Wochen je nach Komplexitaet
Option C: Manueller Upload
Geeignet fuer: Ersteinrichtungsphase oder kleinere Betriebe
Einrichtungsprozess:
-
Datenvorlage herunterladen
Vorlage beim Eaternity-Support anfordern:
- Excel-Tabelle mit erforderlichen Feldern
- Beispieldaten als Referenz
- Validierungsformeln zur Pruefung der Datenqualitaet
-
Verkaufsdaten aus POS exportieren
Historische Daten extrahieren:
- Mindestens 30 Tage (90+ Tage empfohlen)
- Mengen auf Artikelebene, nicht nur Umsatz
- Zeitstempel fuer jede Transaktion
-
Daten formatieren
Erforderliche Spalten:
date | item_name | quantity_sold | service_period | price | categoryBeispiel:
2024-01-15,Pasta Carbonara,45,lunch,14.50,Main Course
2024-01-15,Caesar Salad,32,lunch,9.00,Starter
2024-01-15,Grilled Salmon,28,lunch,18.50,Main Course -
Im Portal hochladen
- Auf sicheres Upload-Portal zugreifen (Link wird vom Koordinator bereitgestellt)
- Formatierte CSV/Excel-Datei hochladen
- Datenvorschau vor Bestaetigung ueberpruefen
- Bestaetigungs-E-Mail erhalten, wenn Verarbeitung abgeschlossen
-
Wiederkehrende Uploads einrichten
Fuer laufende Prognosen:
- Woechentlicher Upload-Zeitplan (Montag empfohlen)
- Verkaufsdaten der Vorwoche exportieren
- Per Portal oder SFTP hochladen
- 15-30 Minuten pro Woche
Zeitrahmen: 1 Woche fuer Ersteinrichtung
Schritt 2: Historischer Datenimport
Datenvorbereitung
Datenqualitaet ueberpruefen:
Fuehren Sie diese Pruefungen vor dem Import durch:
Vollstaendigkeitspruefung:
- Keine fehlenden Daten im Zeitraum
- Alle Menuepunkte einheitlich erfasst
- Servicezeiten klar gekennzeichnet
Genauigkeitspruefung:
- Mengen entsprechen tatsaechlich servierten Portionen
- Zeitstempel sind korrekt (Zeitzonen beachten)
- Keine doppelten Eintraege fuer gleichen Artikel/Datum
Konsistenzpruefung:
- Gleiche Artikelnamen ueber alle Daten
- Standardisierte Kategorienamen
- Einheitliche Bezeichnungen der Servicezeiten
Beispiel Qualitaetspruefung:
import pandas as pd
# Daten laden
df = pd.read_csv('sales_data.csv')
# Auf fehlende Daten pruefen
date_range = pd.date_range(start=df['date'].min(), end=df['date'].max())
missing_dates = date_range.difference(pd.to_datetime(df['date']))
print(f"Fehlende Daten: {missing_dates}")
# Auf inkonsistente Artikelnamen pruefen
item_variations = df.groupby('item_name')['item_name'].count()
print(f"Einzigartige Artikel gesamt: {len(item_variations)}")
# Auf doppelte Eintraege pruefen
duplicates = df[df.duplicated(['date', 'item_name', 'service_period'])]
print(f"Doppelte Eintraege: {len(duplicates)}")
Importprozess
-
Historische Daten einreichen
Ueber Ihre gewaehlte Methode:
- Necta: Automatischer Import aus vorhandenen Daten
- API: Massenimport-Endpunkt
- Manuell: Upload-Portal
-
Datenvalidierung
Eaternity-Team prueft:
- Einhaltung des Datenformats
- Qualitaetsmetriken
- Vollstaendigkeitsbewertung
- Anomalien oder Probleme
-
Validierungsbericht erhalten
Innerhalb von 2 Werktagen:
- Datenqualitaetsbewertung
- Gefundene Probleme und Empfehlungen
- Freigabe zum Fortfahren oder Korrekturanforderungen
-
Korrekturen (falls erforderlich)
Probleme beheben:
- Daten nach Feedback neu formatieren
- Fehlende Informationen ergaenzen
- Inkonsistenzen beheben
- Erneut zur Validierung einreichen
Erwartetes Datenvolumen
Minimum fuer Basistraining:
- 30 Tage historische Daten
- Alle Menuepunkte erfasst
- Durchschnittlich mindestens 50 Gedecke/Tag
Empfohlen fuer optimales Training:
- 90+ Tage historische Daten
- Saisonale Variation enthalten
- Besondere Ereignisse und Feiertage eingeschlossen
Ideal fuer hoechste Genauigkeit:
- 180+ Tage (6 Monate)
- Vollstaendiger Saisonzyklus
- Wetterdaten verfuegbar
- Veranstaltungskalender eingeschlossen
Schritt 3: Modelltraining
Trainingsprozess
Sobald historische Daten importiert sind, beginnt das neuronale Netzwerk-Training automatisch.
Phase 1: Erste Mustererkennung (Tage 1-3)
Das Modell lernt:
- Grundlegende Tagesmuster
- Beliebtheitstrends der Artikel
- Unterschiede zwischen Servicezeiten
- Wochentag-Variationen
Phase 2: Erweitertes Lernen (Tage 4-7)
Das Modell identifiziert:
- Wochen- und Monatszyklen
- Saisonale Trends (bei ausreichenden Daten)
- Wetterkorrelationen
- Auswirkungsmuster von Ereignissen
Phase 3: Optimierung (Tage 8-14)
Das Modell verfeinert:
- Prognosegenauigkeit
- Kalibrierung der Konfidenzintervalle
- Ausreisserbehandlung
- Anpassung an Menueanderungen
Training ueberwachen
Fortschritts-Dashboard:
Zugriff auf Trainingsstatus ueber:
- E-Mail-Updates (taegliche Zusammenfassung)
- Dashboard-Oberflaeche (Echtzeit)
- Slack-Benachrichtigungen (optional)
Angezeigte Kennzahlen:
- Trainingsfortschritt in Prozent
- Aktuelle Genauigkeit auf Validierungsdaten
- Voraussichtliches Abschlussdatum
- Probleme oder Warnungen
Beispiel Trainingsbericht:
Trainingsfortschritt: 65% abgeschlossen
Aktueller MAPE: 18,2% (Ziel: weniger als 15%)
Trainierte Artikel: 42/65
Voraussichtlicher Abschluss: 2024-01-25
Status: Im Plan
Was waehrend des Trainings passiert
Sie muessen nichts tun, aber verstehen Sie, was passiert:
-
Datenvorverarbeitung
- Normalisierung der Mengen
- Merkmalsextraktion (Wochentag, Saisonalitaet, Trends)
- Integration von Wetterdaten
- Abgleich mit Veranstaltungskalender
-
Modellarchitektur-Setup
- Transformer-Schichten konfiguriert
- Aufmerksamkeitsmechanismen initialisiert
- Zeitliche Kodierung etabliert
- Mehrschichtige Verarbeitung vorbereitet
-
Trainingsiterationen
- Modell lernt aus historischen Mustern
- Validierung gegen zurueckgehaltene Daten
- Hyperparameter-Optimierung
- Regularisierung zur Vermeidung von Ueberanpassung
-
Genauigkeitsvalidierung
- Vergleich mit menschlicher Prognose als Referenz
- Kalibrierung der Konfidenzintervalle
- Fehleranalyse und Mustererkennung
- Endgueltige Modellauswahl
Schritt 4: Prognosen starten
Erste Prognosen
Zeitrahmen: 2-4 Wochen nach Einrichtungsbeginn
Benachrichtigung:
- E-Mail-Benachrichtigung, wenn erste Prognosen bereit sind
- Dashboard zeigt Status "Aktiv"
- Prognosen ueber API oder Oberflaeche verfuegbar
Erster Prognosesatz:
- Naechste 7 Tage prognostiziert
- Alle aktiven Menuepunkte enthalten
- Konfidenzintervalle fuer jede Prognose
- Historische Genauigkeitsmetriken angezeigt
Auf Prognosen zugreifen
Ueber Necta-Oberflaeche (Necta-Kunden):
- Bei Necta-Planungsmodul anmelden
- Zu "Bedarfsprognose"-Bereich navigieren
- Taegliche Prognosen nach Artikel anzeigen
- In Planungstabellen exportieren
Ueber API (Individuelle Integrationen):
# Prognosen fuer bestimmtes Datum abrufen
curl -X GET "https://api.eaternity.org/v1/forecast/predictions?date=2024-01-20" \
-H "Authorization: Bearer your_token"
# Antwort
{
"date": "2024-01-20",
"day_of_week": "Saturday",
"predictions": [
{
"item_name": "Pasta Carbonara",
"predicted_quantity": 52,
"confidence_interval": {
"lower": 45,
"upper": 59
},
"accuracy_last_30_days": 92.3
}
]
}
Ueber Dashboard (Manueller Zugriff):
- Im Forecast-Dashboard anmelden
- Zeitraum auswaehlen
- Prognosetabelle anzeigen
- CSV-Export herunterladen
Ihre ersten Prognosen verstehen
Prognosekomponenten:
Jede Prognose enthaelt:
- Prognostizierte Menge: Wahrscheinlichste Anzahl Portionen
- Konfidenzintervall: Bereich des erwarteten Bedarfs (untere bis obere Grenze)
- Genauigkeitsmetrik: Wie zuverlaessig Prognosen zuletzt waren
- Faktoren: Haupteinflussfaktoren (Wetter, Wochentag, Ereignisse)
Beispielprognose:
Artikel: Pasta Carbonara
Datum: Samstag, 20. Januar 2024
Prognostizierte Menge: 52 Portionen
Konfidenzintervall: 45-59 Portionen
- Untere Grenze (10. Perzentil): 45
- Obere Grenze (90. Perzentil): 59
- Konfidenzniveau: 80%
Historische Genauigkeit: 92,3% (letzte 30 Tage)
Hauptfaktoren:
- Wochenende (Samstag): +20% vs. Wochentag-Durchschnitt
- Temperatur: 8°C (normaler Winterbedarf)
- Keine besonderen Ereignisse erkannt
Mehr ueber Konfidenzintervalle erfahren
Integration in den taeglichen Arbeitsablauf
Empfohlener Ablauf:
-
Morgendliche Ueberpruefung (5-10 Minuten)
- Heutigen Endabsatz mit gestriger Prognose vergleichen
- Prognose fuer morgen pruefen
- Ueberraschende Abweichungen notieren
-
Planung (15-20 Minuten)
- Prognosen fuer Zutatenbestellung nutzen
- Zubereitungsmengen basierend auf Prognosen anpassen
- Konfidenzintervalle fuer Pufferplanung beruecksichtigen
-
Feedback (optional, 2-3 Minuten)
- Uebersehene Faktoren notieren (unerwartete Ereignisse, Wetteraenderungen)
- Prognosefehler >30% melden, um Modell zu verbessern
- Feedback ueber Dashboard oder E-Mail einreichen
Siehe Implementierungsleitfaden fuer detaillierten Arbeitsablauf
Validierungs- und Testphase
Woche 1: Beobachtungsmodus
Ziel: Verstehen, wie Prognosen im Vergleich zu Ihrer aktuellen Methode abschneiden
Aktivitaeten:
- Taegliche Prognosen pruefen, aber aktuellen Prozess noch nicht aendern
- Forecast-Prognosen mit Ihren bestehenden Prognosen vergleichen
- Muster oder Ueberraschungen notieren
- Prognosegenauigkeit verfolgen
Zu verfolgende Metriken:
| Artikel | Ist | Ihre Prognose | KI-Prognose | Ihr Fehler | KI-Fehler |
|---------------|------|---------------|-------------|------------|-----------|
| Pasta Carb. | 48 | 55 | 52 | +14,6% | +8,3% |
| Caesar Salad | 30 | 28 | 31 | -6,7% | +3,3% |
Woche 2: Hybridansatz
Ziel: Prognosen schrittweise in die Planung einbeziehen
Aktivitaeten:
- Prognosen fuer 25-50% der Menuepunkte verwenden
- Manuelle Prognosen zunaechst fuer wichtige Artikel beibehalten
- Ergebnisse zwischen manueller und KI-Prognose vergleichen
- Vertrauen in Prognosegenauigkeit aufbauen
Teamschulung:
- Konfidenzintervalle mit Kuechenpersonal besprechen
- Umgang mit oberen/unteren Grenzen diskutieren
- Anpassung fuer bekannte Faktoren ueben, die nicht in Daten enthalten sind
Woche 3-4: Vollstaendige Einfuehrung
Ziel: Prognosen fuer alle Menuepunkte nutzen
Aktivitaeten:
- Prognosen fuer taegliche Planung verwenden
- Konfidenzintervalle fuer Pufferentscheidungen nutzen
- Tatsaechliche Abfallreduzierung verfolgen
- Kosteneinsparungen berechnen
Erfolgsindikatoren:
- Reduzierte Ueberproduktion
- Servicequalitaet aufrechterhalten (keine Ausfaelle)
- Zeitersparnis gegenueber manueller Prognose
- Teamvertrauen in Systemnutzung
Fehlerbehebung bei Einrichtungsproblemen
| Problem | Schnelle Loesung |
|---|---|
| Datenimport schlaegt fehl | UTF-8-Kodierung pruefen, YYYY-MM-DD-Daten, keine leeren Zeilen |
| API-Authentifizierung schlaegt fehl | API-Schluessel auf Leerzeichen pruefen, HTTPS verwenden |
| Prognosen scheinen ungenau | 30+ Tage Daten sicherstellen, 2 Wochen Training abwarten |
| Necta-Integration erscheint nicht | Cache leeren, Modulaktivierung mit Necta ueberpruefen |
Fuer detaillierte Loesungen siehe Fehlerbehebung bei Integrationen.
Hilfe erhalten
E-Mail: forecast@eaternity.org
| Problemtyp | Antwortzeit |
|---|---|
| Kritisch (System ausgefallen) | 4 Stunden |
| Integrationsprobleme | 24 Stunden |
| Daten-/Funktionsfragen | 48 Stunden - 1 Woche |
Checkliste: Einrichtung abgeschlossen
Integration
- POS/ERP-Verbindung hergestellt
- Authentifizierung konfiguriert und getestet
- Datenfluss verifiziert
Historische Daten
- Mindestens 30 Tage importiert
- Datenvalidierung bestanden
- Qualitaetsbewertung >80%
Training
- Neuronales Netzwerk-Training abgeschlossen (100%)
- Validierungsgenauigkeit erreicht Ziele
- Alle Menuepunkte trainiert
Prognosen
- Erste Prognosen erhalten
- Team kann ueber Oberflaeche oder API zugreifen
- Konfidenzintervalle verstanden
Teambereitschaft
- Kontaktperson geschult
- Kuechenpersonal ueber Prognosen informiert
- Workflow-Integration geplant
- Feedback-Prozess etabliert
Naechste Schritte
Nach Abschluss der Einrichtung:
-
Taegliche Nutzung beginnen
- Prognosen in Planungsworkflow integrieren
- Genauigkeit und Lebensmittelabfallreduzierung verfolgen
- Probleme oder unerwartete Ergebnisse melden
-
Feedback geben
- Erstes monatliches Gespraech planen
- Erste Beobachtungen und Fragen teilen
- Verbesserungen oder Funktionswuensche vorschlagen
-
Nutzung optimieren
- Implementierungsleitfaden fuer bewaehrte Methoden lesen
- Erweiterte Funktionen in der Funktionsdokumentation kennenlernen
- Prognose-Konfidenz fuer bessere Entscheidungen erkunden
-
Leistung ueberwachen
- Kosteneinsparungen durch Abfallreduzierung verfolgen
- Zeitersparnis gegenueber manueller Prognose messen
- Erfolgsgeschichten fuer Fallstudie dokumentieren
Siehe auch
- Implementierungsleitfaden — Bewaehrte Methoden fuer den taeglichen Arbeitsablauf
- Necta-Integration — Necta-spezifische Einrichtungsdetails
- Benutzerdefinierte API-Integration — Technischer API-Leitfaden
- Fehlerbehebung — Haeufige Probleme und Loesungen