AI Screenr
Démonstration produit

Comment fonctionne AI Screenr

Comment fonctionne un logiciel d'entretien IA : configurez une fiche de poste en quelques minutes et automatisez la présélection des candidats avec des entretiens vocaux IA. Les candidats passent l'entretien en asynchrone, sans planification. Recevez en quelques minutes des rapports notés avec transcription. Propulsé par AI Screenr. 3 entretiens gratuits. Aucune carte bancaire requise.

Essayer gratuitement
By Équipe AI Screenr·

Trusted by innovative companies

eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela

Trois étapes de l’offre d’emploi à la shortlist classée

Le workflow AI Screenr en résumé — sans intégration, sans planification.

1

Configurer le poste

Collez une fiche de poste pour une configuration IA en un clic, ou construisez‑la manuellement en 5 minutes. AI Screenr extrait les compétences, les règles d’élimination, les pondérations d’évaluation et jusqu’à 5 canevas de questions structurées. Tout est éditable avant lancement.

2

Partager le lien d’entretien

Placez un lien unique dans votre ATS, email, SMS ou job board. Les candidats passent l’entretien en asynchrone sur n’importe quel appareil — pas de planification, pas d’application à installer, pas de compte à créer. Durée typique : 15 à 25 minutes (configurable 5 à 60).

3

Examiner la shortlist notée

Moins de 2 minutes après chaque entretien, un rapport noté arrive dans votre tableau de bord avec une recommandation Strong Yes / Yes / Maybe / No, des scores par dimension, des citations probantes et une shortlist classée.

Regardez une démo en moins de 5 minutes avec 3 entretiens gratuits.

Essayer gratuitement — sans carte

Étape 1 en action — une configuration de poste réaliste

Ce que produit AI Screenr après une configuration en un clic à partir d’une fiche de poste collée. Chaque champ est modifiable avant de lancer le lien d’entretien.

Sample AI Screenr Job Configuration

Product Manager Senior (B2B SaaS)

Job Details

Basic information about the position. The AI reads all of this to calibrate questions and evaluate candidates.

Job Title

Product Manager Senior (B2B SaaS)

Job Family

Produit

Les postes « Produit » mettent l’accent sur la priorisation, la discovery et l’argumentation avec les parties prenantes — l’IA calibre ses relances autour du jugement et des arbitrages plutôt que des détails d’exécution.

Interview Template

Présélection fondée sur les compétences

Autorise jusqu’à 4 relances par question. Creuse le raisonnement d’arbitrage et demande des exemples passés précis — fait apparaître la différence entre des PM expérimentés et des profils adjacents au produit.

Job Description

Nous recrutons un product manager senior pour piloter une surface de workflow B2B cœur de produit. Vous collaborerez avec l’ingénierie, le design et le go-to-market pour identifier de vrais problèmes clients, prioriser avec décision, et livrer des résultats — pas seulement des livrables.

Normalized Role Brief

Product manager senior avec 5+ ans d’expérience B2B SaaS, historique de responsabilité bout en bout sur un périmètre produit, et le jugement nécessaire pour cadrer sans guide pas-à-pas. À l’aise à l’écrit, avec des convictions, serein dans l’ambiguïté.

Concise 2-3 sentence summary the AI uses instead of the full description for question generation.

Skills

Required skills are assessed with dedicated questions. Preferred skills earn bonus credit when demonstrated.

Required Skills

Discovery : entretiens clients, dimensionnement d’opportunitéCadres de priorisation (RICE, Kano ou équivalents appliqués)Rédaction — PRD, notes de décision, narrations de revueLeadership transverse (engineering + design + go-to-market)Instinct quantitatif (funnel, rétention, activation)Gestion des parties prenantes avec visibilité exécutive

The AI asks targeted questions about each required skill. 3-7 recommended.

Preferred Skills

Expérience préalable sur des outils de workflow B2B SaaSExpérience des modèles d’usage ou du self-serve pricingExpérience de programme « design partner »Exposition à des produits plateforme et API

Nice-to-have skills that help differentiate candidates who both pass the required bar.

Must-Have Competencies

Behavioral/functional capabilities evaluated pass/fail. The AI uses behavioral questions ('Tell me about a time when...').

Jugement de priorisationadvanced

Défend ses arbitrages avec des preuves ; sait expliquer ce qui a été coupé et pourquoi, pas seulement ce qui a été livré

Discipline de discoveryadvanced

Conduit de vraies conversations clients, pas des sondages ; distingue les plaintes de surface du « job-to-be-done » sous-jacent

Leadership transverseintermediate

Fait avancer ingénierie, design et go-to-market sans autorité hiérarchique ; résout les conflits de périmètre par l’analyse écrite

Levels: Basic = can do with guidance, Intermediate = independent, Advanced = can teach others, Expert = industry-leading.

Knockout Criteria

Automatic disqualifiers. If triggered, candidate receives 'No' recommendation regardless of other scores.

Expérience B2B

Fail if: Aucune expérience antérieure en produit B2B SaaS, quelle qu’en soit l’échelle

Ce poste requiert un jugement spécifique au B2B — acheteur ≠ utilisateur, cycles de procurement, économie des sièges

Ancienneté

Fail if: Moins de 5 ans d’expérience en product management

Niveau senior — doit piloter un périmètre sans onboarding structuré dès le premier jour

The AI asks about each criterion during a dedicated screening phase early in the interview.

Custom Interview Questions

Mandatory questions asked in order before general exploration. The AI follows up if answers are vague.

Q1

Décrivez-moi l’arbitrage de priorisation le plus conséquent que vous ayez effectué au cours des 12 derniers mois. Qu’avez-vous coupé, qu’avez-vous conservé, et qu’avez-vous appris depuis que vous ne saviez pas alors ?

Q2

Racontez un moment où votre travail de discovery a changé la direction d’une fonctionnalité planifiée. Qu’avez-vous entendu, comment l’avez-vous validé, et qu’est-ce qui a été livré à la place ?

Q3

Parlez-moi d’un désaccord transverse que vous avez résolu. Quel était le désaccord, qu’avez-vous couché par écrit, et comment l’équipe a-t-elle tranché ?

Open-ended questions work best. The AI automatically follows up if answers are vague or incomplete.

Question Blueprints

Structured deep-dive questions with pre-written follow-ups ensuring consistent, fair evaluation across all candidates.

B1. Concevez la première version d’un prompt d’upgrade vers une facturation à l’usage pour notre produit. Décrivez le segment utilisateur, le déclencheur, le message et le indicateur de succès.

Knowledge areas to assess:

segmentation des utilisateurs et droits d’usagechoix de l’événement déclencheur et timingmessage et stratégie d’appel à l’actionmétrique de succès et métrique garde-foumodes d’échec et plan de rollback

Pre-written follow-ups:

F1. Comment éviteriez-vous de solliciter des utilisateurs déjà en discussion de renouvellement ?

F2. Quelle est votre métrique garde-fou, et à partir de quel seuil arrêteriez-vous le prompt ?

F3. Comment décidez-vous entre un prompt in‑product, un email, ou une prise de contact par l’account manager ?

B2. Un client top‑10 demande une fonctionnalité enterprise qui coûterait 2 trimestres‑ingénieur et ne profiterait à aucun autre client. Expliquez votre processus de décision.

Knowledge areas to assess:

valeur compte vs. valeur plateformecoût de distractiongestion du précédent et de l’escaladealternatives (manuel, services, clause contractuelle)communication aux parties prenantes

Pre-written follow-ups:

F1. Comment communiquez-vous la décision à l’équipe compte ?

F2. Et si le client menace de partir ?

F3. Comment votre réponse change-t‑elle si la fonctionnalité pouvait être généralisée plus tard ?

Unlike plain questions where the AI invents follow-ups, blueprints ensure every candidate gets the exact same follow-up questions for fair comparison.

Custom Scoring Rubric

Defines how candidates are scored. Each dimension has a weight that determines its impact on the total score.

DimensionWeightDescription
Clarté de la communication12%Le candidat structure-t‑il clairement ses réponses, utilise-t‑il des exemples concrets, et évite-t‑il les formulations évasives ?
Pertinence des réponses12%La réponse traite-t‑elle directement la question posée, ou le candidat se déplace-t‑il vers un terrain plus confortable ?
Culture produit18%Maîtrise des fondamentaux du product management — discovery, priorisation, métriques, cycle de vie
Résolution de problèmes14%Capacité à raisonner dans l’incertitude, à peser les arbitrages et à défendre ses conclusions sous challenge
Adéquation au poste14%Adéquation aux exigences réelles d’un poste de PM B2B senior — primauté de l’écrit, convictions, aisance dans l’ambiguïté
Assurance et présence6%Reste posé sous relance ; reconnaît ses angles morts sans perdre sa contenance
Comportement et collaboration10%Signaux de collaboration — façon de parler du désaccord, du conflit, et d’attribuer le mérite à l’équipe
Exhaustivité des réponses14%Couvre l’ensemble de la question, pas seulement la partie facile ; mentionne spontanément limites et contre‑exemples

Default rubric: Communication, Relevance, Technical Knowledge, Problem-Solving, Role Fit, Confidence, Behavioral Fit, Completeness. Auto-adds Language Proficiency and Blueprint Question Depth dimensions when configured.

Interview Settings

Configure duration, language, tone, and additional instructions.

Duration

25 min

Language

English

Template

Présélection fondée sur les compétences

Video

Enabled

Tone / Personality

Chaleureux mais structuré. L’IA garde le rythme de la conversation et demande poliment des précisions lorsque les réponses sont vagues.

Adjusts the AI's speaking style but never overrides fairness and neutrality rules.

Company Instructions

Nous sommes une entreprise B2B SaaS en phase de croissance avec environ 80 ingénieurs. Notre produit est utilisé par les équipes RevOps et Sales. Préciser que le poste reporte au VP Product et travaille en partenariat avec un Principal Engineer et un Lead Designer.

Injected into the AI's context so it can reference your company naturally and tailor questions to your environment.

Evaluation Notes

Considérer comme positifs les signaux de communication écrite (le candidat structure‑t‑il ses réponses, cite‑t‑il des métriques spécifiques, nomme‑t‑il les parties prenantes). Pénaliser les généralités vagues et les réponses chargées de jargon sans éléments concrets.

Passed to the scoring engine as additional context when generating scores. Influences how the AI weighs evidence.

Banned Topics / Compliance

Négociation salariale, références, package d’equity, structure de rémunération — ces sujets sont traités séparément après le tour noté.

The AI already avoids illegal/discriminatory questions by default. Use this for company-specific restrictions.

Comment AI Screenr filtre un vivier de 100 candidats

Des candidatures à la shortlist : chaque étape resserre le vivier sur la base de preuves, pas d’instinct. Les chiffres ci‑dessous sont typiques pour un poste tech à volume moyen.

Candidatures reçues

Tous les candidats entrants entrent dans le vivier — job boards, cooptations, réponses automatiques ATS et approche directe.

100/100 candidates remaining

Règles d’élimination

Filtres durs que vous définissez — expérience minimale, autorisation de travail, localisation, fourchette salariale, langue. Les candidats qui échouent sont signalés, pas rejetés automatiquement.

Compétences incontournables

Réussite ou échec sur les compétences non négociables du poste (par exemple, profondeur senior en React pour un Senior React Developer). Évaluées en direct pendant l’entretien.

Niveau de langue

Évaluation CEFR optionnelle (A1–C2) dans la langue que vous renseignez, avec une phase dédiée. Sautée si non configurée.

Entretien noté

8 dimensions par défaut (personnalisables) notent chaque réponse sur 0–100, avec citations probantes, appréciations de qualité (Strong / Moderate / Weak / None) et indices de confiance par dimension.

Shortlist classée

Candidats mieux notés avec recommandation à 4 niveaux, synthèse exécutive, forces et risques, citations marquantes et synthèse de couverture. Prêt pour le hiring manager.

Candidatures reçues100
Règles d’élimination82
Compétences incontournables55
Niveau de langue46
Entretien noté22
Shortlist classée8
Stage 1 of 6100 / 100

Étape 3 en action — un rapport de présélection IA réaliste

Exactement ce qui arrive dans votre tableau de bord moins de 2 minutes après le « au revoir » du candidat. Chaque score est étayé par des extraits de transcription, une appréciation de qualité et un indice de confiance.

Sample AI Screening Report

Alex Morgan

81/100Yes

Confidence: 86%

Recommendation Rationale

Signal fort de PM senior. Alex a explicité les arbitrages de priorisation avec des détails — métriques exactes, parties prenantes nommées, ce qui a été coupé et pourquoi — à travers plusieurs exemples. La discipline de discovery est réelle : l’exemple d’un revirement sur une fonctionnalité planifiée après trois entretiens clients était bien structuré et incluait le contre‑récit (ce qu’iels s’attendaient à entendre vs. ce qu’iels ont réellement entendu). Le point de vigilance visible est le leadership transverse en situation de désaccord ; Alex privilégie le consensus avant de pousser, ce qui peut convenir ou être un risque selon la dynamique d’équipe. Recommandé pour le tour avec le hiring manager.

Summary

Plus de cinq ans de product management B2B SaaS avec une vraie responsabilité de périmètre. Solide en discovery et priorisation — exemples concrets avec métriques et arbitrages. Leadership transverse compétent mais orienté consensus ; le candidat ne pousse pas assez tôt quand la direction d’équipe n’est pas la bonne. La primauté de l’écrit se voit dans la structuration des réponses. Reste calme sous relance.

Knockout Criteria

Expérience B2BPassed

Plus de cinq ans de SaaS B2B sur deux entreprises avec responsabilité claire de périmètre. Scénarios enterprise spécifiques cités.

AnciennetéPassed

Sept ans d’expérience en product management. Nettement au‑dessus du minimum de 5 ans.

Must-Have Competencies

Jugement de priorisationPassed
87%

Plusieurs exemples concrets avec métriques nommées, arbitrages explicites et éléments coupés. Défend ses décisions sans esquive.

Discipline de discoveryPassed
82%

Vrais exemples d’entretiens clients — pas des sondages, pas de l’analytics. A deux reprises, a distingué le job sous-jacent des demandes formulées sans y être poussé·e.

Leadership transversePassed
68%

Travaille bien avec l’ingénierie, le design et le GTM mais a tendance à construire le consensus avant de pousser fort. Probablement adapté aux équipes collaboratives ; risque dans des environnements nécessitant une voix produit forte.

Scoring Dimensions

Clarté de la communicationstrong
9/10 w:0.12

Réponses systématiquement structurées avec contexte, décision et résultat explicites. Aucun remplissage. Métriques et parties prenantes nommées spontanément.

J’ai supprimé le travail de reporting Phase 2 car nous n’avions que 11 % d’adoption sur la Phase 1 après quatre semaines — en dessous de notre seuil de 25 %. L’équipe data voulait poursuivre ; l’arbitrage était entre doubler l’effort sur l’adoption ou livrer une fonctionnalité que personne n’utilisait encore. Avec Anna (analytics), nous avons rédigé une note d’une page ; nous l’avons arrêtée.

Pertinence des réponsesstrong
9/10 w:0.12

Les réponses traitent précisément le scénario demandé plutôt que de se déplacer vers un terrain plus sûr. Sous relance, Alex reste sur la question au lieu de la reframer.

Vous m’avez demandé un arbitrage de priorisation que je regrette. Honnêtement : le tableau de bord customer success — nous l’avons construit, l’adoption était élevée, mais l’équipe exec n’a jamais utilisé le digest hebdo livré en parallèle. J’aurais dû couper le digest à la semaine 2, pas à la semaine 6.

Culture produitstrong
8/10 w:0.18

Fondamentaux solides sur la discovery, les cadres de priorisation et l’instrumentation des métriques. A manqué un point mineur sur la définition de l’activation vs. la rétention mais s’est corrigé sous relance.

Pour le prompt d’upgrade, j’utiliserais comme déclencheur une activation définie par « l’utilisateur a complété trois rapports enregistrés la première semaine », pas une base temps. L’activation prédit la rétention dans nos données — on le sait par l’analyse du cohort month‑3.

Résolution de problèmesstrong
8/10 w:0.14

Raisonne en termes d’arbitrages. Pour le scénario client top‑10, Alex a passé en revue le coût de distraction, le risque de précédent et trois alternatives avant de conclure.

Deux trimestres‑ingénieur ne sont pas le seul coût — il y a le coût de précédent, la dette d’intégration, et le coût d’opportunité. J’explorerais d’abord si l’on peut livrer 80 % de la valeur en mode services ; sinon, je le cadrerais explicitement comme un item payant, engagé au roadmap, avec un prix reflétant le coût d’opportunité.

Adéquation au postestrong
9/10 w:0.14

Primauté de l’écrit, opinions assumées, aisance dans le spécifique. A mentionné trois notes de décision par leur titre. Aucune réponse générique — tous les exemples sont contextualisés équipe.

Pour les décisions difficiles, j’écris une page : la décision, les arbitrages, qui n’est pas d’accord et pourquoi, et si elle est réversible. Elle part à l’équipe avant la réunion. On vient pour décider, pas pour présenter.

Assurance et présencemoderate
8/10 w:0.06

Posé sous relance. A reconnu deux regrets sans se défendre. Légère hésitation lorsqu’on pousse sur le scénario de désaccord avec le leadership.

Je n’ai pas eu de désaccord frontal avec un·e CPO — la plupart étaient avec des leads GTM. Je peux vous en détailler un si c’est utile.

Comportement et collaborationmoderate
7/10 w:0.10

Signaux de collaboration positifs mais orientés consensus. Plusieurs exemples montrent qu’Alex ne pousse qu’après dérive de la trajectoire, pas plus tôt.

J’ai soulevé l’alerte à la quatrième réunion de priorisation. Avec le recul, c’est à la deuxième que j’aurais dû le faire — à ce stade, trois semaines étaient passées et l’argument du coût irrécupérable s’installait.

Exhaustivité des réponsesstrong
8/10 w:0.14

A mentionné spontanément des limites et des contre‑exemples. A répondu aux deux volets des questions composées — ce qui a bien marché et ce qui a moins bien marché.

L’expérience sur le prompt d’upgrade a réussi sur la conversion mais a augmenté ensuite le volume de support d’utilisateurs ayant upgradé sans comprendre leur droit d’usage. C’est un raté que nous aurions dû anticiper.

Blueprint Question Coverage

B1. Prompt d’upgrade vers facturation à l’usage

segmentation des utilisateurs et droits d’usagechoix d’un déclencheur basé sur l’activationmessage et stratégie d’appel à l’actioncouplage métrique de succès et métrique garde-fouplan de rollback et critères d’arrêt du prompt

+ A défini l’activation par des critères comportementaux concrets plutôt que le temps

+ A couplé la conversion à un garde‑fou de volume de support

- N’a pas précisé le seuil qui déclencherait l’arrêt du prompt

B2. Client top‑10 demandant une fonctionnalité non généralisable

cadre coût de distraction et risque de précédentexploration des alternatives (services, engagement borné)plan de communication aux parties prenantesce qui change si la fonctionnalité peut devenir généralisable plus tard

+ A élargi la notion de coût au‑delà de la capacité — précédent et dette d’intégration

+ A proposé une alternative cadrée et payante avant d’aboutir au refus

- N’a pas traité le cas où la fonctionnalité pourrait être généralisée

Interview Coverage

%

Overall Coverage

Strengths

  • Réflexe « écrit d’abord » — les notes de décision sont un outil par défaut, pas une cérémonie
  • Arbitrages de priorisation étayés par des métriques nommées et des dates précises
  • Excellente discipline de discovery — distingue les jobs clients sous‑jacents des demandes exprimées
  • Évoque spontanément contre‑exemples et regrets

Risks

  • Tendance au consensus en cas de désaccord — pousse après dérive plutôt qu’en amont
  • Peu d’indices de conflits au niveau CPO ; les exemples sont orientés GTM

Notable Quotes

On vient pour décider, pas pour présenter.
Deux trimestres‑ingénieur ne sont pas le seul coût — il y a le coût de précédent, la dette d’intégration et le coût d’opportunité.
La réponse honnête, c’est le dashboard customer success — nous l’avons construit, l’adoption était élevée, mais l’équipe exec n’a jamais utilisé le digest hebdo.

Suggested Next Step

Faire avancer vers un entretien de 60 minutes avec le hiring manager, centré sur un scénario « je n’étais pas d’accord avec la direction » et une étude de cas « défense d’un scope‑cut ». Explorer les moments où Alex pousserait plus tôt dans le processus, pas seulement quand le consensus a déjà dérivé.

Comment fonctionne AI Screenr

AI Screenr transforme une fiche de poste en une shortlist notée en quatre étapes. Cette page déroule le processus d’entretien IA de bout en bout, pour que vous sachiez exactement ce qui se passe entre le clic sur « create job » et l’ouverture du premier rapport classé.

  • Étape 1 : Configurer le poste (en un clic ou environ 5 minutes en manuel)
  • Étape 2 : Le candidat passe l’entretien vocal en asynchrone (généralement 15 à 25 minutes)
  • Étape 3 : L’IA note et synthétise (moins de 2 minutes par candidat)
  • Étape 4 : Vous examinez la shortlist classée

Aucune intégration ATS requise. Fonctionne avec n’importe quel processus de recrutement existant.

Testez le processus d’entretien IA complet avec 3 entretiens gratuits →

Étape 1 — Configurer le poste

Deux chemins mènent à un lien d’entretien opérationnel. La plupart des équipes choisissent la configuration générée par l’IA.

Option A — Configuration IA en un clic

Collez une fiche de poste (interne ou publique, toute longueur jusqu’à 10 000 caractères). AI Screenr extrait et préremplit :

  • Titre, description, résumé de poste, famille de poste, modèle d’entretien
  • Compétences requises et compétences appréciées
  • Compétences incontournables avec niveaux requis (basic, intermediate, advanced, expert)
  • Règles d’élimination (expérience minimale, autorisation de travail, fourchette salariale, langue, et tout autre critère présent dans la fiche)
  • Questions d’entretien personnalisées
  • Jusqu’à 5 canevas de questions structurées — chacun avec thèmes incontournables, relances, et indicateurs de bonnes et mauvaises réponses pour que l’IA sache à quoi ressemble une excellente réponse pour ce poste précis

Vous relisez le brouillon, ajustez ce qui ne correspond pas à vos standards réels et enregistrez. Temps typique : 30 secondes à une minute.

Option B — Configuration manuelle

Vous préférez partir de zéro ? Le formulaire vous guide champ par champ. Comptez environ 5 minutes pour un nouveau poste, plus rapide dès que vous avez un modèle à dupliquer.

Ce qui est configuré

Les deux chemins produisent le même résultat :

  • Questions cœur d’entretien — généralement 6 à 10 grands sujets rattachés aux dimensions d’évaluation.
  • Canevas de questions — thèmes incontournables, relances et indicateurs de réponse par question.
  • Profondeur des relances — intensité avec laquelle l’IA creuse les réponses superficielles, configurable par dimension.
  • Règles d’élimination — signalées, jamais rejetées automatiquement. Vous décidez de la suite.
  • Dimensions d’évaluation — 8 par défaut (entièrement personnalisables) plus une 9e dimension langue quand l’entretien n’est pas en anglais.
  • Langue et cible CEFR — langue d’entretien (57 prises en charge) et évaluation ou non de la maîtrise (A1 à C2).
  • Durée d’entretien — 5 à 60 minutes, généralement 15 à 25.
  • Enregistrement vidéo — optionnel, activable par poste.
  • Expiration du lien — durée pendant laquelle le lien reste actif pour les candidats.

Pour des exemples concrets de postes, voir Développeur React, Développeur Backend et Responsable commercial. Chaque page montre une configuration remplie et un exemple de rapport.

Étape 2 — Le candidat passe l’entretien vocal

C’est la seule étape qui implique le candidat. Tout ce qui précède est côté recruteur, et tout ce qui suit est automatisé.

Ce que voient les candidats

  1. Le lien. Une URL, envoyée via vos canaux habituels — réponse auto ATS, email, SMS, message de job board. Pas de création de compte, pas d’application, pas de page de planification.
  2. Consentement et test micro. Avant tout enregistrement, le candidat voit un écran de consentement, autorise l’accès au micro et effectue un test de 10 secondes.
  3. Accueil. L’IA se présente, explique le déroulé, confirme le poste et répond en clair à « que devient cet enregistrement ? ».
  4. La conversation. L’IA pose des questions, écoute et s’adapte. Les bonnes réponses sont reconnues et creusées. Les réponses superficielles reçoivent des relances. Les candidats peuvent demander de répéter, faire une pause ou poser des questions de clarification.
  5. Clôture. L’IA conclut, laisse au candidat l’occasion de poser ses questions et confirme la suite du processus.

Ce qui rend l’entretien équitable

Tous les candidats pour un même poste sont évalués sur les mêmes critères. L’IA ajuste cependant ses relances aux réponses de chacun — aucune transcription n’est identique — mais toutes sont notées contre le même référentiel. Le candidat ne peut pas déduire de l’entretien s’il « réussit » ou non, ce qui réduit l’anxiété de performance et produit un signal plus fidèle.

Durée et finalisation

  • Durée typique : 15 à 25 minutes (configurable de 5 à 60 par poste).
  • Taux de complétion : 80–90 % — nettement supérieur à la vidéo unidirectionnelle car il y a une vraie interaction.
  • Si le candidat est déconnecté, il peut reprendre depuis le même lien pendant 24 heures. L’entretien repart là où il s’est arrêté. Les entretiens partiels sont signalés dans le rapport.

Pour en savoir plus sur le workflow asynchrone, voir logiciel d’entretien asynchrone.

Étape 3 — L’IA note et génère le rapport

Moins de 2 minutes après le « au revoir » du candidat, un rapport structuré est prêt dans votre tableau de bord. Voici ce qu’il contient :

Haut du rapport

  • Score global — agrégat pondéré de 0 à 100 sur toutes les dimensions.
  • Recommandation d’embauche à 4 niveauxStrong Yes / Yes / Maybe / No.
  • Confiance globale — score de 0,0 à 1,0 reflétant la quantité de preuves exploitables.
  • Synthèse exécutive — 2 à 3 phrases pour les hiring managers pressés.

Scores par dimension

Chaque dimension affiche :

  • Score (0 à 10, puis pondéré) avec 1 à 2 phrases de justification
  • Appréciation de qualité : Strong / Moderate / Weak / None
  • Indice de confiance par dimension (0,0 à 1,0)
  • Extraits probants — citations directes de la transcription justifiant le score
  • Questions liées — quelles questions ont produit les éléments de preuve
  • Éléments manquants — ce qu’attendaient les critères mais que la transcription n’a pas montré

Résultats d’élimination et compétences incontournables

S’ils ont été définis à l’étape 1 :

  • Résultats des règles d’élimination — drapeaux déclenchés ou évalués, avec preuves à l’appui.
  • Résultats des compétences incontournables — réussite ou échec avec preuves par compétence.

Blocs de synthèse

  • Forces — 3 à 5 puces de ce qui ressort positivement.
  • Risques — 3 à 5 puces de ce qui suscite des réserves.
  • Citations marquantes — les lignes les plus intéressantes repérées par l’IA.
  • Prochaine étape suggérée — une recommandation fondée sur le score et la qualité des preuves.
  • Synthèse de couverture — la part de vos questions personnalisées, compétences, règles d’élimination et canevas effectivement couverts par les réponses.

Transcription et enregistrement

  • Transcription complète de la conversation, avec recherche et horodatage.
  • Enregistrement audio par défaut. Enregistrement vidéo si vous l’avez activé pour ce poste.

La notation utilise la version des critères enregistrée au moment de l’entretien. Si vous ajustez les critères en cours de processus, les entretiens antérieurs conservent leurs scores originaux et les nouveaux critères s’appliquent à partir de ce point. Vous voyez un historique de versions propre, pas un recalcul silencieux.

Chaque page de poste comporte un exemple de rapport. Jetez‑y un œil : Ingénieur QA, Ingénieur DevOps, Ingénieur logiciel, Chef de produit.

Étape 4 — Vous examinez la shortlist classée

Le tableau de bord classe les candidats par score global, avec les drapeaux d’élimination en tête. Cycle de revue typique :

  1. Parcourez la liste classée. Les 20 % de tête méritent généralement un examen attentif. Les candidats avec des règles d’élimination déclenchées passent en bas.
  2. Ouvrez les meilleurs rapports. Lisez d’abord la synthèse en 2–3 phrases, puis les puces « forces et risques », puis survolez les preuves mises en avant par l’IA.
  3. Décidez. Faire avancer, rejeter, ou marquer pour suivi. Rejetez en masse les inadéquations évidentes. Gardez les Strong Yes pour le hiring manager.
  4. Partagez avec les hiring managers. Un clic pour un lien de partage, un PDF, ou un résumé prêt à coller pour Slack ou email. Aucun compte AI Screenr requis.

Le temps recruteur par candidat passe de 25 à 45 minutes d’appel + notes à environ 5 minutes de lecture d’un rapport structuré. Pour des calculs ROI concrets à des volumes typiques, voir remplacer les entretiens de présélection.

Résumé des durées

ÉtapeQuiDurée type
Configurer le poste (IA en un clic)Recruteur30 à 60 secondes
Configurer le poste (manuel)RecruteurEnviron 5 minutes
Entretien candidatCandidat15 à 25 minutes (configurable 5 à 60)
Notation IA et génération du rapportAutomatiséMoins de 2 minutes par candidat
Revue du rapport par candidatRecruteurEnviron 5 minutes

Pour un vivier de 50 candidats, le temps recruteur chute d’environ 25 heures (appels de présélection + notes) à environ 5 heures (lecture de rapports). Cela libère 20 heures par semaine pour des tâches à plus forte valeur.

Exemples de rapports par poste

AI Screenr couvre toutes les catégories — du software engineering à la santé, au retail, à la construction et à l’hôtellerie. Chaque page de poste propose un exemple de rapport d’entretien, pour voir exactement ce qui arrive dans votre tableau de bord. Sélection ci‑dessous, entre rôles techniques, spécialistes et métiers de service :

RoleCategory
Backend DeveloperTechnology
UX DesignerDesign
Data AnalystTechnology
Financial AnalystFinance
RecruiterHR
ParalegalLegal
Real Estate AgentReal Estate
Construction ManagerConstruction
Production ManagerManufacturing
VeterinarianVeterinary

Ou parcourez 960+ guides d’entretien IA par poste par catégorie.

Sécurité et confidentialité tout au long du processus d’entretien

Chaque étape du processus d’entretien IA a un contrat de traitement des données défini. Le consentement est recueilli avant tout enregistrement — les candidats voient un écran de consentement explicite précisant ce qui est enregistré, comment c’est utilisé et qui peut y accéder. Les audios et transcriptions sont stockés dans la région (hébergement UE disponible pour les exigences GDPR) avec des durées de rétention configurables par poste, après lesquelles les données sont supprimées automatiquement.

Les candidats peuvent demander la suppression de leurs données à tout moment par un processus en self‑service, et nous fournissons un Data Processing Agreement sur demande. Côté recrutement, seules les personnes authentifiées dans votre espace de travail peuvent consulter les rapports. Les liens de partage peuvent être configurés pour expirer automatiquement. Pour tous les détails de sécurité et de conformité, voir la section Sécurité, confidentialité et conformité sur la page du logiciel d’entretien IA.

Prêt à essayer ?

Commencez avec 3 entretiens gratuits, sans carte bancaire. Configurez votre premier poste en une minute (un clic) ou 5 minutes (manuel) et obtenez votre premier rapport noté le jour même.

Share:

Questions fréquentes

Combien de temps faut‑il pour configurer AI Screenr ?
Moins d’une minute avec la configuration de poste générée par l’IA en un clic — collez une fiche de poste et l’IA produit la configuration complète (compétences, règles d’élimination, pondérations d’évaluation et jusqu’à 5 canevas de questions structurées). Si vous préférez le paramétrage manuel, comptez environ 5 minutes. Tout reste modifiable après lancement.
Que voit un candidat dans un entretien AI Screenr ?
Les candidats cliquent sur le lien d’entretien depuis n’importe quel appareil, acceptent le consentement, effectuent un test micro de 10 secondes, puis démarrent une vraie conversation vocale avec l’IA. Aucune application à installer, aucun compte à créer, aucun créneau à réserver. L’IA les accueille, explique le déroulé, pose les questions et adapte ses relances à chaque réponse. La durée totale est généralement de 15 à 25 minutes (configurable de 5 à 60 par poste).
À quelle vitesse recevrai‑je les scores après un entretien ?
Moins de 2 minutes entre la fin de l’entretien et l’arrivée du rapport noté dans votre tableau de bord. L’IA transcrit l’audio, note 8 dimensions par défaut (plus une 9e dimension langue pour les entretiens non anglophones), rattache des extraits de transcription à chaque score et produit une recommandation d’embauche à 4 niveaux.
Puis‑je modifier les critères d’évaluation pendant qu’un vivier est actif ?
Oui. Vous pouvez modifier à tout moment toute question, relance ou pondération. Les entretiens déjà réalisés conservent leurs scores originaux — la version des critères est enregistrée avec chaque rapport, ce qui vous donne un historique propre plutôt qu’un recalcul silencieux.
Comment partager les rapports AI Screenr avec les hiring managers ?
Chaque rapport dispose d’un lien de partage, d’une exportation PDF et d’un bloc de synthèse copiable pour Slack ou email. Les hiring managers n’ont pas besoin de compte AI Screenr pour ouvrir un rapport partagé. Vous pouvez aussi leur donner un accès en lecture seule au tableau de bord s’ils veulent voir plusieurs candidats à la fois.
Que se passe‑t‑il si un candidat se tait ou est déconnecté ?
L’IA attend, relance doucement et autorise des pauses sans pénaliser le candidat. Si la connexion tombe complètement, le candidat peut reprendre depuis le même lien sous 24 heures — l’entretien repart là où il s’est arrêté. Les entretiens partiels sont signalés dans le rapport pour vous laisser décider d’une nouvelle invitation.
Les candidats peuvent‑ils repasser un entretien IA ?
Par défaut, chaque candidat dispose d’une tentative par poste afin de préserver l’équité et la comparabilité. Vous pouvez autoriser une nouvelle tentative manuellement en cas de problème technique. La transcription précédente est conservée pour référence.
Comment les entretiens sont‑ils envoyés aux candidats ?
Vous copiez un lien unique et l’intégrez dans votre flux candidat habituel — réponse automatique ATS, email du recruiter, message de job board, SMS. Pas de planification, pas de projet d’intégration. Le lien fonctionne sur tout navigateur moderne mobile ou desktop.
Le rapport AI Screenr se synchronise‑t‑il avec mon ATS ?
AI Screenr fonctionne avec tout ATS. Vous pouvez copier l’URL de la shortlist dans votre ATS, exporter le PDF, coller le bloc de synthèse, ou utiliser un webhook pour pousser les scores vers tout système acceptant du JSON entrant. Des intégrations dédiées avec Greenhouse, Lever, Workable, Ashby, Personio et d’autres sont disponibles pour les équipes qui veulent une synchro automatique.
Comment fonctionne concrètement la notation de l’entretien IA ?
Chaque réponse est évaluée selon 8 dimensions par défaut — Clarté de la communication, Pertinence, Culture produit, Résolution de problèmes, Adéquation au poste, Assurance, Comportement et collaboration, et Exhaustivité — sur une échelle pondérée de 0–100. Chaque dimension comporte une appréciation de qualité (Strong / Moderate / Weak / None), un indice de confiance et des citations directes de la transcription. Une 9e dimension de maîtrise de la langue est ajoutée automatiquement pour les entretiens non anglophones.

Voyez comment ça marche — essayez 3 entretiens gratuits

Start with 3 free interviews — no credit card required.

Essayer gratuitement