Skip to main content
1

Scrivi un prompt di ricerca seguendo un modello coerente

La chiave per una ricerca parallela efficace è dare a ogni sessione la stessa checklist. Ogni sessione analizza una libreria in modo indipendente, quindi il modello assicura che i risultati siano direttamente confrontabili quando vengono uniti.Apri una nuova sessione Devin dalla home page di Devin, oppure usa la pagina Explore Advanced Capabilities nella home page di Devin per un template di prompt per la ricerca parallela.
2

Rivedi e approva le sessioni proposte

Dopo l’invio, Devin analizza il tuo elenco e propone una sessione per ogni libreria. Vedrai un’anteprima simile a questa:
Proposed sessions (30):
  1. Research Datadog Logs — pricing, SDKs, retention, alerting...
  2. Research Grafana Loki — pricing, SDKs, retention, alerting...
  3. Research AWS CloudWatch Logs — pricing, SDKs, retention, alerting...
  ...
Esamina l’elenco e fai clic su Approve per avviare tutte le sessioni contemporaneamente. Ogni sessione viene eseguita in modo indipendente, esplorando il sito web della libreria, leggendo la documentazione, consultando i forum per sviluppatori e compilando il modello.Se vuoi escludere o aggiungere librerie, modifica l’elenco prima di approvare. Puoi anche allegare un playbook per assicurarti che ogni sessione segua la stessa metodologia di ricerca.
3

Raccogli e confronta i risultati

Una volta completate tutte le sessioni, Devin unisce automaticamente i singoli report in un unico confronto. L’output viene generato nel formato che hai richiesto — ecco come appare il confronto in stile foglio di calcolo risultante:
## Logging Library Comparison (Node.js + Python, 2 TB/day)

| Library           | Type       | $/mo (2 TB/day) | Retention       | Node SDK | Python SDK | Query Lang   | Alerting     |
|-------------------|------------|-----------------|-----------------|----------|------------|--------------|--------------|
| Datadog Logs      | SaaS       | ~$5,400         | 15d hot, archive| 5/5      | 5/5        | Custom DSL   | Yes + anomaly|
| Grafana Loki      | Self-host  | Infra only      | Configurable    | 4/5      | 4/5        | LogQL        | Via Grafana  |
| Axiom              | SaaS       | ~$1,200         | 30d hot, 1yr    | 4/5      | 4/5        | APL          | Yes          |
| Better Stack      | SaaS       | ~$890           | 30d default     | 5/5      | 4/5        | SQL-like     | Yes          |
| Elastic Cloud     | SaaS/self  | ~$3,600         | ILM policies    | 5/5      | 5/5        | KQL / Lucene | Yes + ML     |
| Signoz            | Self-host  | Infra only      | Configurable    | 4/5      | 4/5        | ClickHouse SQL| Yes         |
| Coralogix         | SaaS       | ~$2,100         | Hot/warm/cold   | 4/5      | 3/5        | Lucene / SQL | Yes + anomaly|
| ...               |            |                 |                 |          |            |              |              |

### Top 3 for a 50-service Node.js + Python stack:
1. Axiom — lowest cost at scale, fast APL queries, solid SDKs
2. Grafana Loki — zero license cost, pairs with existing Grafana dashboards
3. Datadog Logs — best SDK auto-instrumentation, but expensive at 2 TB/day
Puoi porre domande di follow-up nella stessa sessione: ha il contesto di tutte le sessioni figlie.Una volta scelto un vincitore, puoi avviare una sessione Devin direttamente dalla stessa sessione per configurare la libreria nella tua repo:
4

Approfondisci la lista ristretta

Once you have a shortlist, start targeted follow-up sessions for deeper evaluation.
5

Suggerimenti

Questo modello funziona per qualsiasi valutazione tecnica

La ricerca in parallelo non è limitata agli strumenti di logging. Usala per qualsiasi valutazione in cui hai bisogno degli stessi dati su molte opzioni — piattaforme CI/CD, servizi di feature flag, ORM, provider cloud o framework di conformità. Esempio: “Analizza queste 20 piattaforme CI/CD e confronta velocità di build, prezzi, opzioni self-hosted e qualità dell’integrazione con GitHub.”

Mantieni ogni sessione tra i 15 e i 30 minuti

Se una singola libreria richiede ore di analisi approfondita, è un segnale che dovrebbe avere una sessione dedicata invece di far parte di un run parallelo. Le sessioni parallele funzionano meglio quando ogni elemento richiede all’incirca lo stesso sforzo.