Przejdź do treści

Integracje aifirst.bible v0.9

Jak gadać z AI - 3 sposoby na różne poziomy technicznej zaawansowania

aifirst.bible daje Ci dostęp do AI przez trzy różne kanały - od prostej apki webowej po zaawansowane integracje API. Każdy sposób ma swoje zastosowanie, w zależności od tego kim jesteś i co chcesz zrobić.


1. Aplikacja Webowa - Dla Każdego

Dla kogo?

  • Managerowie i CEO bez technicznego background
  • Osoby, które chcą szybko dostać poradę bez kombinowania z kodem
  • Teams którzy preferują visual interface nad terminal

Jak to działa?

Otwierasz stronę, logujesz się (nawet fake emailem, jak pisałem wcześniej) i masz:

  • Digital Core - mapujesz swój tech stack przez interfejs webowy
  • Profile - opisujesz firmę i siebie przez formularze
  • Chat - rozmawiasz z ekspertami AI jak z prawdziwymi ludźmi
  • Prompt Generator - tworzysz prompty przez friendly interface

Co możesz robić?

  • Zadawać pytania w naturalnym języku
  • Dostawać spersonalizowane porady na podstawie kontekstu firmy
  • Generować profesjonalne prompty bez wiedzy o XML
  • Śledzić historię rozmów i budować na poprzednich dyskusjach

Przykład użycia: CEO pyta "Jak przygotować firmę na AI transformation?" i dostaje plan krok po kroku dostosowany do jego branży i rozmiaru firmy.


2. API - Dla Techies i Integracji

Główny Endpoint: /query-ai

To jest serce całej integracji - jeden endpoint który obsługuje wszystkie rodzaje zapytań do AI.

Jak to działa pod spodem?

POST /query-ai

Headers wymagane:

X-OpenAI-API-Key: twój_klucz_openai (opcjonalny)
X-Anthropic-API-Key: twój_klucz_anthropic (opcjonalny)
Authorization: Bearer your_token

Request Body:

{
  "command": {
    "type": "ask",
    "query": "Jak zoptymalizować Django pod duży ruch?",
    "db": true
  },
  "userContext": {
    "bio": "Opis Twojego doświadczenia...",
    "company": "Opis firmy...",
    "mission": "Misja firmy...",
    "vision": "Wizja firmy...",
    "values": "Wartości firmy..."
  },
  "digicore": {
    "leadGenTech": [{"name": "MailChimp", "integrationLevel": 2}],
    "customerCareTech": [{"name": "Freshdesk", "integrationLevel": 4}],
    // ... reszta kategorii tech stacku
  },
  "modelSettings": {
    "model": "gpt-4o",
    "temperature": 0.7,
    "maxTokens": 4000,
    "maxResults": 5,
    "reasoningEffort": "medium",
    "messages": [] // historia konwersacji
  }
}

Proces przetwarzania zapytania:

  1. Walidacja - sprawdza klucze API i dane wejściowe

  2. Kontekst loading - ładuje Twój Digital Core i Profile

  3. Jeśli db: true:

  4. Generuje 3-5 pytań pogłębiających na podstawie Twojego zapytania

  5. Przeszukuje bazę dokumentów w Qdrant (score threshold 0.7)
  6. Filtruje i deduplikuje wyniki
  7. Buduje kontekst z znalezionych dokumentów

  8. Final response - generuje odpowiedź uwzględniając:

  9. Twoje oryginalne pytanie

  10. Kontekst firmy z Digital Core i Profile
  11. Znalezione dokumenty (jeśli używałeś bazy)
  12. Historię konwersacji (jeśli istnieje)

Response - Server-Sent Events (SSE):

data: {"type": "status", "content": "Otrzymano zapytanie: Jak zoptymalizować Django pod duży ruch?. Trwa przetwarzanie"}

data: {"type": "status", "content": "Generowanie pytań pogłębiających"}

data: {"type": "status", "content": "Wybrano 4 pogłębiających pytań", "data": ["Jakie są bottlenecks w Django ORM?", "Jak cache'ować queries?", ...]}

data: {"type": "status", "content": "Znaleziono 7 unikatowych źródeł pasujących do pytań", "data": [{"id": "doc1", "score": 0.85, "metadata": {...}}, ...]}

data: {"type": "content", "content": "Na podstawie analizy Twojego stacku (Django + PostgreSQL + AWS) i znalezionych best practices, oto konkretne kroki..."}

data: [DONE]


3. MCP (Model Context Protocol) - Dla AI Power Users [jeszcze nie gotowe]

Dla kogo?

  • Osoby już używające AI tools (Cursor, Claude Desktop, ChatGPT)
  • Developers którzy chcą deep integration z istniejącym AI workflow
  • Teams eksperymentujące z AI-driven development

Co to daje?

MCP pozwala na bezpośrednią integrację aifirst.bible z Twoimi ulubionymi narzędziami AI jako kontekstowy provider.


Authentication i Security

Tokeny API

  • Generowane na podstawie (nawet fake) email adresu
  • Wymagane w headerze Authorization: Bearer your_token
  • Nie expirują, ale możesz je regenerować

Klucze AI Providers

  • Swoje klucze OpenAI/Anthropic podajesz w headerach
  • Nie są zapisywane na serwerach aifirst.bible
  • Używane tylko jako proxy do providera

Rate Limiting

  • Brak sztywnych limitów (jeszcze), ale rozsądnie używaj
  • Koszty API naliczane na Twoje klucze, nie nasze

Data Privacy

  • Request/response nie są persistowane
  • Logowane tylko query strings (bez odpowiedzi) do research
  • Twój Digital Core i Profile zostają w localStorage przeglądarki

Error Handling

Typowe błędy:

400 - Validation Error

{"detail": "Wymagany przynajmniej jeden klucz API: OpenAI lub Anthropic"}

401 - Authentication Error

{"detail": "Invalid token"}

500 - Processing Error

{"detail": "Błąd podczas przetwarzania zapytania: connection timeout"}

503 - Provider Error

{"detail": "OpenAI API temporarily unavailable"}


Podsumowanie - Kiedy używać czego?

Aplikacja webowa: Quick questions, exploratory research, team demos API: Automatyzacja, integracje z istniejącymi systemami, custom applications
MCP: Deep AI workflow integration, development assistance, consistent context

Wszystkie trzy sposoby dają dostęp do tego samego AI brain, ale w różnych formatach dostosowanych do różnych use cases. Możesz kombinować je w zależności od potrzeb - używać webowej do eksploracji, API do automatyzacji i MCP do daily development workflow.


Ostatnia aktualizacja: 11 czerwca 2025
Utworzony: 11 czerwca 2025