Integracje aifirst.bible v0.9¶
Jak gadać z AI - 3 sposoby na różne poziomy technicznej zaawansowania¶
aifirst.bible daje Ci dostęp do AI przez trzy różne kanały - od prostej apki webowej po zaawansowane integracje API. Każdy sposób ma swoje zastosowanie, w zależności od tego kim jesteś i co chcesz zrobić.
1. Aplikacja Webowa - Dla Każdego¶
Dla kogo?¶
- Managerowie i CEO bez technicznego background
- Osoby, które chcą szybko dostać poradę bez kombinowania z kodem
- Teams którzy preferują visual interface nad terminal
Jak to działa?¶
Otwierasz stronę, logujesz się (nawet fake emailem, jak pisałem wcześniej) i masz:
- Digital Core - mapujesz swój tech stack przez interfejs webowy
- Profile - opisujesz firmę i siebie przez formularze
- Chat - rozmawiasz z ekspertami AI jak z prawdziwymi ludźmi
- Prompt Generator - tworzysz prompty przez friendly interface
Co możesz robić?¶
- Zadawać pytania w naturalnym języku
- Dostawać spersonalizowane porady na podstawie kontekstu firmy
- Generować profesjonalne prompty bez wiedzy o XML
- Śledzić historię rozmów i budować na poprzednich dyskusjach
Przykład użycia: CEO pyta "Jak przygotować firmę na AI transformation?" i dostaje plan krok po kroku dostosowany do jego branży i rozmiaru firmy.
2. API - Dla Techies i Integracji¶
Główny Endpoint: /query-ai
¶
To jest serce całej integracji - jeden endpoint który obsługuje wszystkie rodzaje zapytań do AI.
Jak to działa pod spodem?¶
POST /query-ai
Headers wymagane:
X-OpenAI-API-Key: twój_klucz_openai (opcjonalny)
X-Anthropic-API-Key: twój_klucz_anthropic (opcjonalny)
Authorization: Bearer your_token
Request Body:
{
"command": {
"type": "ask",
"query": "Jak zoptymalizować Django pod duży ruch?",
"db": true
},
"userContext": {
"bio": "Opis Twojego doświadczenia...",
"company": "Opis firmy...",
"mission": "Misja firmy...",
"vision": "Wizja firmy...",
"values": "Wartości firmy..."
},
"digicore": {
"leadGenTech": [{"name": "MailChimp", "integrationLevel": 2}],
"customerCareTech": [{"name": "Freshdesk", "integrationLevel": 4}],
// ... reszta kategorii tech stacku
},
"modelSettings": {
"model": "gpt-4o",
"temperature": 0.7,
"maxTokens": 4000,
"maxResults": 5,
"reasoningEffort": "medium",
"messages": [] // historia konwersacji
}
}
Proces przetwarzania zapytania:¶
-
Walidacja - sprawdza klucze API i dane wejściowe
-
Kontekst loading - ładuje Twój Digital Core i Profile
-
Jeśli
db: true
: -
Generuje 3-5 pytań pogłębiających na podstawie Twojego zapytania
- Przeszukuje bazę dokumentów w Qdrant (score threshold 0.7)
- Filtruje i deduplikuje wyniki
-
Buduje kontekst z znalezionych dokumentów
-
Final response - generuje odpowiedź uwzględniając:
-
Twoje oryginalne pytanie
- Kontekst firmy z Digital Core i Profile
- Znalezione dokumenty (jeśli używałeś bazy)
- Historię konwersacji (jeśli istnieje)
Response - Server-Sent Events (SSE):
data: {"type": "status", "content": "Otrzymano zapytanie: Jak zoptymalizować Django pod duży ruch?. Trwa przetwarzanie"}
data: {"type": "status", "content": "Generowanie pytań pogłębiających"}
data: {"type": "status", "content": "Wybrano 4 pogłębiających pytań", "data": ["Jakie są bottlenecks w Django ORM?", "Jak cache'ować queries?", ...]}
data: {"type": "status", "content": "Znaleziono 7 unikatowych źródeł pasujących do pytań", "data": [{"id": "doc1", "score": 0.85, "metadata": {...}}, ...]}
data: {"type": "content", "content": "Na podstawie analizy Twojego stacku (Django + PostgreSQL + AWS) i znalezionych best practices, oto konkretne kroki..."}
data: [DONE]
3. MCP (Model Context Protocol) - Dla AI Power Users [jeszcze nie gotowe]¶
Dla kogo?¶
- Osoby już używające AI tools (Cursor, Claude Desktop, ChatGPT)
- Developers którzy chcą deep integration z istniejącym AI workflow
- Teams eksperymentujące z AI-driven development
Co to daje?¶
MCP pozwala na bezpośrednią integrację aifirst.bible z Twoimi ulubionymi narzędziami AI jako kontekstowy provider.
Authentication i Security¶
Tokeny API¶
- Generowane na podstawie (nawet fake) email adresu
- Wymagane w headerze
Authorization: Bearer your_token
- Nie expirują, ale możesz je regenerować
Klucze AI Providers¶
- Swoje klucze OpenAI/Anthropic podajesz w headerach
- Nie są zapisywane na serwerach aifirst.bible
- Używane tylko jako proxy do providera
Rate Limiting¶
- Brak sztywnych limitów (jeszcze), ale rozsądnie używaj
- Koszty API naliczane na Twoje klucze, nie nasze
Data Privacy¶
- Request/response nie są persistowane
- Logowane tylko query strings (bez odpowiedzi) do research
- Twój Digital Core i Profile zostają w localStorage przeglądarki
Error Handling¶
Typowe błędy:¶
400 - Validation Error
{"detail": "Wymagany przynajmniej jeden klucz API: OpenAI lub Anthropic"}
401 - Authentication Error
{"detail": "Invalid token"}
500 - Processing Error
{"detail": "Błąd podczas przetwarzania zapytania: connection timeout"}
503 - Provider Error
{"detail": "OpenAI API temporarily unavailable"}
Podsumowanie - Kiedy używać czego?¶
Aplikacja webowa: Quick questions, exploratory research, team demos
API: Automatyzacja, integracje z istniejącymi systemami, custom applications
MCP: Deep AI workflow integration, development assistance, consistent context
Wszystkie trzy sposoby dają dostęp do tego samego AI brain, ale w różnych formatach dostosowanych do różnych use cases. Możesz kombinować je w zależności od potrzeb - używać webowej do eksploracji, API do automatyzacji i MCP do daily development workflow.
Utworzony: 11 czerwca 2025