AI Screenr
Przewodnik po produkcie

Jak działa AI Screenr

Jak działa oprogramowanie do rozmów kwalifikacyjnych z AI: w kilka minut skonfiguruj opis stanowiska i zautomatyzuj wstępną selekcję kandydatów rozmowami głosowymi AI. Kandydaci przechodzą rozmowy asynchronicznie, bez umawiania terminów. W kilka minut otrzymasz raporty z oceną i transkrypcją. Zasilane przez AI Screenr. 3 bezpłatne rozmowy. Bez karty kredytowej.

Wypróbuj za darmo
By AI Screenr Team·

Trusted by innovative companies

eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela
eprovement
Jobrela

Trzy kroki od ogłoszenia do uszeregowanej shortlisty

Workflow AI Screenr w skrócie — bez integracji, bez umawiania terminów.

1

Skonfiguruj stanowisko

Wklej opis stanowiska, by jednym kliknięciem uruchomić konfigurację AI, lub zbuduj ją ręcznie w ok. 5 minut. AI Screenr wyodrębni umiejętności, reguły dyskwalifikacji, wagi ocen i do 5 szablonów pytań. Przed startem możesz edytować wszystko.

2

Udostępnij link do rozmowy

Umieść jeden link w ATS, e‑mailu, SMS-ie lub na job boardzie. Kandydaci rozmawiają asynchronicznie na dowolnym urządzeniu — bez umawiania, bez instalacji, bez konta. Typowy czas to 15 do 25 minut (konfigurowalne od 5 do 60).

3

Przejrzyj ocenioną shortlistę

Do 2 minut od zakończenia każdej rozmowy raport z oceną trafia do Twojego panelu z rekomendacją Silne tak / Tak / Być może / Nie, wynikami per wymiar, cytatami z transkrypcji i uszeregowaną shortlistą.

Zobacz prezentację na żywo w mniej niż 5 minut z 3 bezpłatnymi rozmowami.

Wypróbuj za darmo — bez karty

Krok 1 w praktyce – realistyczna konfiguracja stanowiska

Co AI Screenr przygotowuje po konfiguracji jednym kliknięciem na podstawie wklejonego opisu stanowiska. Każde pole można edytować przed uruchomieniem linku do rozmowy.

Sample AI Screenr Job Configuration

Starszy Menedżer Produktu (B2B SaaS)

Job Details

Basic information about the position. The AI reads all of this to calibrate questions and evaluate candidates.

Job Title

Starszy Menedżer Produktu (B2B SaaS)

Job Family

Produkt

Stanowiska produktowe kładą nacisk na priorytetyzację, discovery i pracę z interesariuszami – AI kalibruje dopytywanie wokół osądu i kompromisów, a nie szczegółów wykonawczych.

Interview Template

Screening oparty na kompetencjach

Pozwala na maks. 4 pytania pogłębiające na pytanie. Naciska na rozumienie kompromisów i prosi o konkretne przykłady z przeszłości – dzięki temu wyłania różnicę między doświadczonymi PM-ami a kandydatami z pogranicza PM.

Job Description

Szukamy starszego menedżera produktu do odpowiedzialności za kluczową powierzchnię workflow B2B. Będziesz współpracować z engineeringiem, designem i go-to-market, aby odkrywać realne problemy klientów, zdecydowanie priorytetyzować i dowozić rezultaty – nie tylko outputy.

Normalized Role Brief

Starszy menedżer produktu z 5+ latami doświadczenia w B2B SaaS, historią end-to-end własności obszaru produktu i osądem pozwalającym podejmować decyzje o zakresie bez instrukcji krok po kroku. Pisanie na pierwszym miejscu, wyraziste opinie, spokój w niejasności.

Concise 2-3 sentence summary the AI uses instead of the full description for question generation.

Skills

Required skills are assessed with dedicated questions. Preferred skills earn bonus credit when demonstrated.

Required Skills

Discovery: rozmowy z klientami, szacowanie potencjałuFrameworki priorytetyzacji (RICE, Kano lub równoważne w praktyce)Pisanie — PRD, mema decyzyjne, narracje przeglądowePrzywództwo międzyfunkcyjne (engineering + design + go-to-market)Instynkt ilościowy (lejek, retencja, aktywacja)Zarządzanie interesariuszami z ekspozycją na poziom executive

The AI asks targeted questions about each required skill. 3-7 recommended.

Preferred Skills

Doświadczenie w narzędziach workflow B2B SaaSDoświadczenie z pricingiem opartym o użycie lub samoobsługąDoświadczenie w programie design partnerówEkspozycja na pracę nad platformą i produktami API

Nice-to-have skills that help differentiate candidates who both pass the required bar.

Must-Have Competencies

Behavioral/functional capabilities evaluated pass/fail. The AI uses behavioral questions ('Tell me about a time when...').

Osąd przy priorytetyzacjiadvanced

Broni decyzji o kompromisach na podstawie dowodów; potrafi wyjaśnić, co i dlaczego ucięto, nie tylko co dowieziono

Dyscyplina discoveryadvanced

Prowadzi prawdziwe rozmowy z klientami, nie ankiety; odróżnia skargi powierzchowne od rzeczywistego „job to be done”

Przywództwo międzyfunkcyjneintermediate

Uruchamia wspólnie engineering, design i go-to-market bez formalnej władzy; rozwiązuje spory o zakres poprzez analizę pisaną

Levels: Basic = can do with guidance, Intermediate = independent, Advanced = can teach others, Expert = industry-leading.

Knockout Criteria

Automatic disqualifiers. If triggered, candidate receives 'No' recommendation regardless of other scores.

Doświadczenie B2B

Fail if: Brak wcześniejszego doświadczenia produktowego w B2B SaaS na jakąkolwiek skalę

To stanowisko wymaga specyficznego osądu B2B — kupujący to nie użytkownik, cykle zakupowe, ekonomika licencji

Staż

Fail if: Mniej niż 5 lat doświadczenia w product management

Poziom senior — musi od pierwszego dnia przejąć obszar bez ustrukturyzowanego wdrożenia

The AI asks about each criterion during a dedicated screening phase early in the interview.

Custom Interview Questions

Mandatory questions asked in order before general exploration. The AI follows up if answers are vague.

Q1

Przeprowadź mnie przez najbardziej brzemienną w skutki decyzję priorytetyzacyjną z ostatnich 12 miesięcy. Co uciąłeś/ucięłaś, co zostawiłeś/aś i czego dziś wiesz, a wtedy nie wiedziałeś/aś?

Q2

Opisz sytuację, gdy Twoje discovery zmieniło kierunek planowanej funkcji. Co usłyszałeś/aś, jak to zweryfikowałeś/aś i co ostatecznie dowieźliście zamiast tego?

Q3

Opowiedz o sporze międzyfunkcyjnym, który rozwiązałeś/aś. Na czym polegał spór, co spisałeś/aś i jak zespół podjął decyzję?

Open-ended questions work best. The AI automatically follows up if answers are vague or incomplete.

Question Blueprints

Structured deep-dive questions with pre-written follow-ups ensuring consistent, fair evaluation across all candidates.

B1. Zaprojektuj pierwszą wersję komunikatu o uaktualnieniu planu rozliczanego wg użycia w naszym produkcie. Przeprowadź mnie przez segment użytkownika, wyzwalacz, treść i metrykę sukcesu.

Knowledge areas to assess:

segmentacja użytkowników i uprawnieniawybór i timing zdarzenia-wyzwalaczatreść i strategia call-to-actionmetryka sukcesu i metryka bezpieczeństwatryby porażki i plan wycofania

Pre-written follow-ups:

F1. Jak uniknąć wyświetlania komunikatu użytkownikom, którzy są już w rozmowach odnowieniowych?

F2. Jaka jest Twoja metryka bezpieczeństwa i przy jakim progu zatrzymał(a)byś komunikat?

F3. Jak decydujesz między komunikatem w produkcie, e-mailem a kontaktem opiekuna konta?

B2. Klient z top 10 prosi o funkcję enterprise, która kosztowałaby 2 kwartały pracy inżynierów i nie przyniosłaby korzyści żadnemu innemu klientowi. Wyjaśnij, jak podejmiesz decyzję.

Knowledge areas to assess:

wartość konta vs. wartość platformykoszt rozproszenia uwagiprecedens i zarządzanie eskalacjąalternatywy (manual, usługi, tylko kontrakt)komunikacja z interesariuszami

Pre-written follow-ups:

F1. Jak komunikujesz decyzję zespołowi obsługującemu to konto?

F2. Co jeśli klient zagrozi odejściem?

F3. Jak zmieniłaby się Twoja odpowiedź, gdyby funkcję dało się później uogólnić?

Unlike plain questions where the AI invents follow-ups, blueprints ensure every candidate gets the exact same follow-up questions for fair comparison.

Custom Scoring Rubric

Defines how candidates are scored. Each dimension has a weight that determines its impact on the total score.

DimensionWeightDescription
Jasność komunikacji12%Czy kandydat/czka strukturyzuje odpowiedzi jasno, używa konkretnych przykładów i unika asekuracji?
Adekwatność odpowiedzi12%Czy odpowiedź dotyczy wprost zadanego pytania, czy kandydat/czka ucieka do bezpieczniejszego tematu?
Wiedza merytoryczna18%Zrozumienie podstaw product management — discovery, priorytetyzacja, metryki, cykl życia
Rozwiązywanie problemów14%Umiejętność rozumowania w warunkach niepewności, ważenia kompromisów i obrony wniosków pod naciskiem
Dopasowanie do stanowiska14%Zgodność z realnymi wymaganiami senior PM w B2B — pisanie na pierwszym miejscu, własne zdanie, komfort w niejednoznaczności
Pewność i prezencja6%Spokój przy dopytywaniu; przyznaje luki bez utraty równowagi
Dopasowanie behawioralne10%Sygnały współpracy — jak kandydat/czka mówi o sporach, konflikcie i dawaniu zasług zespołowi
Kompletność odpowiedzi14%Obejmuje całe pytanie, nie tylko łatwą połowę; samodzielnie zgłasza zastrzeżenia i kontrprzykłady

Default rubric: Communication, Relevance, Technical Knowledge, Problem-Solving, Role Fit, Confidence, Behavioral Fit, Completeness. Auto-adds Language Proficiency and Blueprint Question Depth dimensions when configured.

Interview Settings

Configure duration, language, tone, and additional instructions.

Duration

25 min

Language

English

Template

Screening oparty na kompetencjach

Video

Enabled

Tone / Personality

Przyjazny, ale uporządkowany. AI utrzymuje tempo rozmowy i uprzejmie prosi o szczegóły, gdy odpowiedzi są zbyt ogólne.

Adjusts the AI's speaking style but never overrides fairness and neutrality rules.

Company Instructions

Jesteśmy firmą B2B SaaS na etapie wzrostu, z ok. 80 inżynierami. Nasz produkt jest używany przez zespoły RevOps i sprzedaży. Wspomnij, że stanowisko raportuje do VP of Product i współpracuje z Principal Engineer oraz Lead Designerem.

Injected into the AI's context so it can reference your company naturally and tailor questions to your environment.

Evaluation Notes

Traktuj sygnały komunikacji pisemnej (czy kandydat/czka strukturyzuje odpowiedzi, odnosi się do konkretnych metryk, nazywa interesariuszy) jako pozytywne. Karz ogólniki i odpowiedzi pełne branżowych terminów bez konkretów.

Passed to the scoring engine as additional context when generating scores. Influences how the AI weighs evidence.

Banned Topics / Compliance

Negocjacje płacowe, referencje, pakiet equity, struktura wynagrodzenia – te kwestie są omawiane osobno po rundzie z oceną.

The AI already avoids illegal/discriminatory questions by default. Use this for company-specific restrictions.

Jak AI Screenr filtruje pulę 100 kandydatów

Od aplikacji do shortlisty: każdy etap zawęża lejek na podstawie dowodów, nie przeczucia. Poniższe liczby są typowe dla roli technicznej o średnim wolumenie.

Otrzymane aplikacje

Wszyscy napływający kandydaci trafiają do lejka — z job boardów, poleceń, autoresponderów ATS i działań direct.

100/100 candidates remaining

Reguły dyskwalifikacji

Twarde filtry, które definiujesz — minimalne doświadczenie, uprawnienia do pracy, lokalizacja, widełki płacowe, język. Kandydaci niespełniający kryteriów są flagowani, nie odrzucani automatycznie.

Umiejętności must‑have

Zaliczone/niezaliczone dla niepodlegających negocjacji umiejętności na to stanowisko (np. głęboka znajomość React dla Senior React Developera). Oceniane na żywo w trakcie rozmowy.

Poziom językowy

Opcjonalna ocena CEFR (A1–C2) w zadanym języku, z dedykowaną fazą rozmowy. Pomijana, jeśli nie skonfigurowano.

Rozmowa z oceną

8 domyślnych wymiarów oceny (konfigurowalnych) punktuje każdą odpowiedź w skali 0–100 wraz z cytatami, oceną jakości (Strong / Moderate / Weak / None) i wartością pewności per wymiar.

Uszeregowana krótka lista

Najlepiej ocenieni kandydaci z 4‑stopniową rekomendacją, executive summary, mocnymi stronami i ryzykami, cytatami oraz podsumowaniem pokrycia. Gotowe dla hiring managera.

Otrzymane aplikacje100
Reguły dyskwalifikacji82
Umiejętności must‑have55
Poziom językowy46
Rozmowa z oceną22
Uszeregowana krótka lista8
Stage 1 of 6100 / 100

Krok 3 w praktyce – realistyczny raport ze screeningu AI

Dokładnie to, co trafia do Twojego panelu w ciągu 2 minut od pożegnania kandydata. Każdy wynik ma podpięte cytaty z transkrypcji, ocenę jakości i wartość pewności.

Sample AI Screening Report

Alex Morgan

81/100Yes

Confidence: 86%

Recommendation Rationale

Silny sygnał senior PM. Alex opisał/a kompromisy priorytetyzacyjne z konkretami — dokładne metryki, nazwani interesariusze, co i dlaczego ucięto — w wielu przykładach. Dyscyplina discovery autentyczna: przypadek odwrócenia planowanej funkcji po trzech rozmowach z klientami był dobrze ustrukturyzowany i zawierał kontrnarrację (czego się spodziewano vs. co faktycznie usłyszano). Widoczna luka to przywództwo międzyfunkcyjne w warunkach sporu; Alex domyślnie szuka konsensusu, zanim mocniej popchnie kierunek — co może być OK albo ryzykowne zależnie od dynamiki zespołu. Rekomendowany/a do rundy z hiring managerem.

Summary

Ponad 5 lat product managementu w B2B SaaS z wyraźną własnością obszaru. Mocny w discovery i priorytetyzacji — konkretne przykłady z metrykami i kompromisami. Przywództwo międzyfunkcyjne kompetentne, ale skłonne do konsensusu; kandydat/ka nie kontruje wcześnie, gdy kierunek zespołu jest błędny. Instynkt pisania na pierwszym miejscu widoczny w strukturze odpowiedzi. Spokój przy pytaniach pogłębiających.

Knockout Criteria

Doświadczenie B2BPassed

Ponad pięć lat pracy w B2B SaaS w dwóch firmach z wyraźną własnością obszaru. Wspomniane konkretne scenariusze z umowami enterprise.

StażPassed

Siedem lat doświadczenia w product management. Swobodnie powyżej minimum 5 lat.

Must-Have Competencies

Osąd przy priorytetyzacjiPassed
87%

Wiele konkretnych przykładów z nazwanymi metrykami, jawnymi kompromisami i tym, co ucięto. Broni decyzji bez asekuracji.

Dyscyplina discoveryPassed
82%

Prawdziwe przykłady rozmów z klientami — nie ankiety ani analityka. Dwukrotnie bez podpowiedzi odróżnił(a) ukryte zadania klienta od zgłaszanych próśb o funkcje.

Przywództwo międzyfunkcyjnePassed
68%

Dobrze współpracuje z engineeringiem, designem i GTM, ale ma tendencję do budowania konsensusu przed mocniejszym popchnięciem. Prawdopodobnie OK dla zespołów współpracujących; ryzyko tam, gdzie potrzebny jest silny głos produktu.

Scoring Dimensions

Jasność komunikacjistrong
9/10 w:0.12

Konsekwentnie zorganizowane odpowiedzi z wyraźnym kontekstem, decyzją i wynikiem. Bez wypełniaczy. Nazwane konkretne metryki i interesariusze bez dopytywania.

Uciąłem/am prace nad raportowaniem z Fazy 2, bo po czterech tygodniach adopcja Fazy 1 wynosiła 11% — poniżej naszego progu 25%. Zespół data chciał kontynuować; kompromis był między podwojeniem wysiłku na adopcję a dostarczeniem funkcji, której jeszcze nikt realnie nie używał. Razem z Anną z analityki napisaliśmy jednostronicową notatkę decyzyjną; zabiliśmy temat.

Adekwatność odpowiedzistrong
9/10 w:0.12

Odpowiedzi trafiały w konkretny scenariusz z pytania zamiast uciekać w bezpieczniejsze rejony. Pod presją Alex trzymał/a się pytania, nie przeformułowywał/a go.

Pytał(a) Pan/Pani o decyzję priorytetyzacyjną, której żałuję. Szczerze: dashboard customer success — zbudowaliśmy go, adopcja była wysoka, ale zespół executive nigdy nie używał tygodniowego digestu, który też wysłaliśmy. Powinienem/nam był(a) uśmiercić digest w drugim tygodniu, nie w szóstym.

Wiedza merytorycznastrong
8/10 w:0.18

Silne podstawy w discovery, frameworkach priorytetyzacji i instrumentacji metryk. Drobna pomyłka w definicji metryki aktywacji vs. retencji, ale autokorekta po dopytaniu.

Dla komunikatu o uaktualnieniu użył(a)bym aktywacji zdefiniowanej jako ‚użytkownik ukończył trzy zapisane raporty w pierwszym tygodniu’ jako wyzwalacza, nie czasu. Aktywacja przewiduje retencję w naszych danych — wiemy to z analizy kohorty w trzecim miesiącu.

Rozwiązywanie problemówstrong
8/10 w:0.14

Myślenie w kategoriach kompromisów. Dla scenariusza z klientem z top 10 Alex przeszedł/przeszła przez koszt rozproszenia, ryzyko precedensu i trzy alternatywy, zanim doszedł/a do rekomendacji.

Dwa kwartały pracy inżynierów to nie jedyny koszt — dochodzi koszt precedensu, dług integracyjny i koszt alternatywny. Najpierw sprawdził(a)bym, czy możemy dostarczyć 80% wartości jako usługa; jeśli nie, rozpisał(a)bym to jawnie jako płatną pozycję z zobowiązaniem roadmapowym w cenie, która odzwierciedla koszt alternatywny.

Dopasowanie do stanowiskastrong
9/10 w:0.14

Pisanie na pierwszym miejscu, wyrobione zdanie, gotowość do konkretu. Wspomniał/a trzy notatki decyzyjne z nazwami. Zero generyków — wszystkie przykłady osadzone w zespole.

Przy trudnych decyzjach piszę jednostronicówkę: decyzja, kompromisy, kto się nie zgadza i dlaczego, oraz czy da się to odwrócić. Zespół dostaje to przed spotkaniem. Ludzie przychodzą gotowi decydować, nie prezentować.

Pewność i prezencjamoderate
8/10 w:0.06

Spokój pod dociskaniem. Przyznał/a się do dwóch decyzji, których żałuje, bez defensywności. Lekka asekuracja przy scenariuszu ‚niezgody z leadershipem’.

Nie miałem/am pełnej niezgody z osobą na poziomie CPO — większość moich sporów była z liderami GTM. Mogę podać jeden taki przykład, jeśli to pomocne.

Dopasowanie behawioralnemoderate
7/10 w:0.10

Sygnały współpracy pozytywne, ale skłonność do konsensusu. W kilku przykładach Alex kontruje dopiero po tym, jak kierunek zespołu już odpłynął, nie wcześniej.

Zgłosiłem/am obawę na czwartym spotkaniu priorytetyzacyjnym. Z perspektywy czasu to drugie spotkanie było momentem, w którym powinienem/nam był(a) to podnieść — trzy tygodnie za nami i argument kosztu utopionego już się formował.

Kompletność odpowiedzistrong
8/10 w:0.14

Samodzielnie dodawał/a zastrzeżenia i kontrprzykłady. Odpowiadał/a na obie połowy pytań złożonych — co poszło dobrze i co nie.

Eksperyment z komunikatem o uaktualnieniu zadziałał na konwersję, ale w dół zwiększył się wolumen zgłoszeń do supportu od użytkowników, którzy uaktualnili bez zrozumienia uprawnień. Tego nie doszacowaliśmy.

Blueprint Question Coverage

B1. Komunikat o uaktualnieniu przy rozliczaniu wg użycia

segmentacja użytkowników i uprawnieniawybór wyzwalacza oparty o aktywacjętreść i strategia call-to-actionsparowanie metryki sukcesu i metryki bezpieczeństwaplan wycofania i kryteria zatrzymania komunikatu

+ Zdefiniował(a) aktywację przez konkretne zachowania, a nie czas

+ Sparował(a) metrykę konwersji z metryką bezpieczeństwa dot. wolumenu wsparcia

- Nie omówił(a), przy jakim progu należałoby zatrzymać komunikat

B2. Klient z top 10 żąda funkcji nieprzydatnej innym

ujęcie kosztu rozproszenia i precedensueksploracja alternatyw (usługa, ograniczone zobowiązanie)plan komunikacji z interesariuszamico się zmienia, jeśli funkcję da się później uogólnić

+ Ujął/ujęła koszty szerzej niż headcount — precedens i dług integracyjny

+ Zaproponował(a) ograniczoną, płatną alternatywę przed odmową

- Nie odniósł/odniosła się do przypadku potencjalnej uogólnialności

Interview Coverage

%

Overall Coverage

Strengths

  • Pisanie na pierwszym miejscu — notatki decyzyjne to domyślne narzędzie, nie ceremonia
  • Kompromisy priorytetyzacyjne poparte nazwanymi metrykami i konkretnymi datami
  • Silna dyscyplina discovery — odróżnia ukryte zadania klienta od zgłaszanych próśb
  • Samodzielnie podaje kontrprzykłady i żale bez dopytywania

Risks

  • Skłonność do konsensusu przy sporze — kontruje po dryfie, a nie przed nim
  • Ograniczone dowody konfliktów na poziomie CPO; przykłady głównie z GTM

Notable Quotes

Ludzie przychodzą gotowi decydować, nie prezentować.
Dwa kwartały pracy inżynierów to nie jedyny koszt — jest koszt precedensu, dług integracyjny i koszt alternatywny.
Szczera odpowiedź to dashboard customer success — zbudowaliśmy go, adopcja była wysoka, ale zespół executive nigdy nie używał tygodniowego digestu.

Suggested Next Step

Przejdź do 60‑minutowej rundy z hiring managerem, skupionej na jednym scenariuszu „nie zgodziłem/am się z leadershipem” i jednym case study „obrona cięcia zakresu”. Sprawdź momenty, w których Alex pchnął/ęłaby mocniej wcześniej w procesie, a nie dopiero po dryfie ku konsensusowi.

AI Screenr zamienia opis stanowiska w uszeregowaną shortlistę w czterech krokach. Ta strona prowadzi przez cały proces rozmowy AI od początku do końca, aby było jasne, co dzieje się między kliknięciem „create job” a otwarciem pierwszego raportu z rankingiem.

  • Krok 1: Skonfiguruj stanowisko (jednym kliknięciem lub ręcznie w ok. 5 minut)
  • Krok 2: Kandydat asynchronicznie przechodzi rozmowę głosową (zwykle 15 do 25 minut)
  • Krok 3: AI ocenia i podsumowuje (do 2 minut na kandydata)
  • Krok 4: Przeglądasz uszeregowaną shortlistę

Bez integracji z ATS. Działa z każdym istniejącym procesem rekrutacji.

Przetestuj cały proces rozmowy AI w 3 bezpłatnych rozmowach →

Krok 1 — Skonfiguruj stanowisko

Do aktywnego linku do rozmowy prowadzą dwie ścieżki. Większość zespołów wybiera konfigurację generowaną przez AI.

Opcja A — konfiguracja AI jednym kliknięciem

Wklej opis stanowiska (wewnętrzny lub publiczny, dowolnej długości do 10 000 znaków). AI Screenr wyodrębnia i uzupełnia:

  • Tytuł, opis, skrót roli, rodzinę stanowisk, szablon rozmowy
  • Umiejętności wymagane i preferowane
  • Umiejętności must‑have z poziomami wymaganymi (basic, intermediate, advanced, expert)
  • Reguły dyskwalifikacji (minimalne doświadczenie, uprawnienia do pracy, widełki płacowe, język i wszystko inne z opisu stanowiska)
  • Niestandardowe pytania do rozmowy
  • Do 5 szablonów pytań — każdy z tematami obowiązkowymi, pytaniami pogłębiającymi oraz wskaźnikami silnych i słabych odpowiedzi, aby AI wiedziała, jak brzmi świetna odpowiedź na to konkretne stanowisko

Przeglądasz szkic, korygujesz to, co nie odpowiada Twoim standardom, i zapisujesz. Typowy czas: od 30 sekund do minuty.

Opcja B — konfiguracja ręczna

Wolisz zbudować od zera? Formularz prowadzi krok po kroku przez każde pole. Zarezerwuj ok. 5 minut dla nowego stanowiska; szybciej, jeśli kopiujesz gotowy szablon.

Co jest konfigurowane

Obie ścieżki dają ten sam efekt:

  • Pytania główne do rozmowy — zwykle 6 do 10 obszarów powiązanych z wymiarami oceny.
  • Szablony pytań — tematy obowiązkowe, pytania pogłębiające i wskaźniki odpowiedzi dla każdego pytania.
  • Głębokość dopytywania — jak mocno AI dopytuje przy płytkich odpowiedziach, konfigurowalne per wymiar.
  • Reguły dyskwalifikacji — flagowane, nie odrzucane automatycznie. Następny krok należy do Ciebie.
  • Wymiary oceny — 8 domyślnych (w pełni konfigurowalnych) plus 9. wymiar językowy, gdy rozmowa nie jest po angielsku.
  • Język i cel CEFR — język rozmowy (57 obsługiwanych) oraz to, czy oceniamy biegłość językową (A1 do C2).
  • Czas trwania rozmowy — od 5 do 60 minut, zwykle 15 do 25.
  • Nagrywanie wideo — opcjonalne, włączane per stanowisko.
  • Ważność linku — jak długo link pozostaje aktywny dla kandydatów.

Konkretne przykłady dla stanowisk: Deweloper React, Deweloper Backend oraz Kierownik sprzedaży. Na każdej stronie znajdziesz wypełnioną konfigurację i przykładowy raport.

Krok 2 — Kandydat przechodzi rozmowę głosową

To jedyny etap z udziałem kandydata. Wszystko wcześniej dzieje się po stronie rekrutera, a wszystko potem jest zautomatyzowane.

Co widzą kandydaci

  1. Link. Jeden adres URL wysłany Twoim standardowym kanałem — autoresponder ATS, e‑mail, SMS, wiadomość z job boardu. Bez zakładania konta, instalacji aplikacji i strony do umawiania.
  2. Zgoda i test mikrofonu. Zanim rozpocznie się nagrywanie, kandydat widzi ekran zgody, nadaje dostęp do mikrofonu i robi 10‑sekundowy test.
  3. Powitanie. AI przedstawia się, wyjaśnia przebieg rozmowy, potwierdza stanowisko i prostym językiem odpowiada na „co dzieje się z tym nagraniem?”.
  4. Rozmowa. AI zadaje pytania, słucha i dostosowuje się. Silne odpowiedzi są doceniane i pogłębiane. Płytkie odpowiedzi dostają dopytania. Kandydat może poprosić AI o powtórzenie pytania, zrobić pauzę lub zadać pytania doprecyzowujące.
  5. Zakończenie. AI podsumowuje, daje szansę na pytania od kandydata i potwierdza, co dzieje się dalej.

Co sprawia, że rozmowa jest fair

Wszyscy kandydaci na to samo stanowisko mają te same kryteria oceny. AI dopasowuje pytania pogłębiające do specyfiki odpowiedzi każdej osoby, więc dwie transkrypcje nigdy nie są identyczne, ale wszystkie są oceniane według tych samych kryteriów. Kandydat nie jest w stanie ocenić w trakcie rozmowy, czy idzie mu dobrze czy słabo — to obniża stres i daje bardziej wiarygodny sygnał.

Czas i ukończenie

  • Typowy czas trwania: 15 do 25 minut (konfigurowalne od 5 do 60 na stanowisko).
  • Współczynnik ukończenia: 80–90% — istotnie wyższy niż w jednostronnym wideo, bo to prawdziwa interakcja.
  • Jeśli kandydat się rozłączy, może wznowić z tego samego linku w ciągu 24 godzin. Rozmowa rusza od miejsca przerwania. Częściowe rozmowy są oznaczone w raporcie.

Więcej o pracy asynchronicznej: oprogramowanie do rozmów asynchronicznych.

Krok 3 — AI ocenia i tworzy raport

Do 2 minut po pożegnaniu kandydata w Twoim panelu czeka ustrukturyzowany raport. Oto co dokładnie zawiera:

Góra raportu

  • Łączny wynik — 0 do 100 jako ważona suma wszystkich wymiarów.
  • 4‑stopniowa rekomendacja zatrudnienia — Silne tak / Tak / Być może / Nie.
  • Łączna pewność — wynik 0,0 do 1,0 odzwierciedlający ilość dostępnych dowodów.
  • Executive summary — 2–3 zdania dla hiring managerów, którzy czytają tylko nagłówek.

Oceny per wymiar

Każdy wymiar pokazuje:

  • Wynik (0 do 10, następnie ważony) z 1–2 zdaniową racją
  • Ocenę jakości: Strong / Moderate / Weak / None
  • Wartość pewności per wymiar (0,0 do 1,0)
  • Cytaty‑dowody — bezpośrednie fragmenty transkrypcji uzasadniające wynik
  • Powiązane pytania — które pytania dostarczyły dowodów
  • Brakujące dowody — czego oczekiwały kryteria, a nie pojawiło się w transkrypcji

Wyniki dyskwalifikacji i must‑have

Jeśli zdefiniowano w Kroku 1:

  • Wyniki dyskwalifikacji — wyzwolone lub ocenione flagi plus dowody do każdej reguły.
  • Wyniki umiejętności must‑have — zaliczone/niezaliczone z dowodami per umiejętność.

Bloki podsumowań

  • Mocne strony — 3 do 5 punktów tego, co się wyróżniło.
  • Ryzyka — 3 do 5 punktów, co budzi obawy.
  • Cytaty warte uwagi — najciekawsze fragmenty zidentyfikowane przez AI.
  • Sugerowany kolejny krok — rekomendacja oparta na wyniku i jakości dowodów.
  • Podsumowanie pokrycia — w jakim stopniu kandydat odpowiedziami pokrył Twoje pytania, umiejętności, reguły dyskwalifikacji i szablony pytań.

Transkrypcja i nagranie

  • Pełna transkrypcja rozmowy, z możliwością wyszukiwania i znacznikami czasu.
  • Nagranie audio domyślnie. Nagranie wideo — jeśli włączyłeś/włączyłaś je dla tego stanowiska.

Ocenianie używa wersji kryteriów zapisanej w momencie rozmowy. Jeśli zmienisz kryteria w trakcie procesu, wcześniejsze rozmowy zachowają oryginalne wyniki, a nowe kryteria będą obowiązywać od zmiany. Widzisz czystą historię wersji zamiast cichego przeliczania.

Na każdej stronie stanowiska znajdziesz przykładowy raport. Sprawdź kilka: Inżynier QA, Inżynier DevOps, Inżynier oprogramowania, Menedżer produktu.

Krok 4 — Przejrzyj uszeregowaną shortlistę

Panel sortuje kandydatów wg łącznego wyniku, z flagami dyskwalifikacji na górze. Typowy cykl przeglądu:

  1. Przeskanuj listę z rankingiem. Górne 20% zwykle warto obejrzeć bliżej. Kandydaci z wyzwolonymi regułami dyskwalifikacji spadają na dół.
  2. Otwórz najlepsze raporty. Przeczytaj najpierw 2–3 zdaniowe podsumowanie, potem punkty o mocnych stronach i ryzykach, a na końcu przejrzyj dowody wskazane przez AI.
  3. Zdecyduj. Przekaż dalej, odrzuć lub oznacz do dopytania. Oczywiste niedopasowania odrzuć hurtowo. Kandydatów z oceną Silne tak zachowaj dla hiring managera.
  4. Udostępnij hiring managerom. Jednym kliknięciem wygenerujesz link, PDF lub wklejane podsumowanie do Slacka lub e‑maila. Konto AI Screenr nie jest potrzebne.

Czas rekrutera na kandydata spada z 25–45 minut rozmowy na żywo + notatki do ok. 5 minut przeglądu ustrukturyzowanego raportu. Konkretne wyliczenia ROI przy typowych wolumenach: zastąp rozmowy wstępne.

Podsumowanie czasu

KrokKto wykonujeTypowy czas
Konfiguracja stanowiska (AI jednym kliknięciem)Rekruter30 do 60 sekund
Konfiguracja stanowiska (ręczna)RekruterOkoło 5 minut
Rozmowa kandydataKandydat15 do 25 minut (konfigurowalne 5 do 60)
Ocena AI i generowanie raportuAutomatycznieDo 2 minut na kandydata
Przegląd raportu na kandydataRekruterOkoło 5 minut

Dla puli 50 kandydatów czas rekrutera spada z ok. 25 godzin (rozmowy wstępne + notatki) do ok. 5 godzin (przegląd raportów). To uwalnia 20 godzin tygodniowo na pracę o wyższej wartości.

Przykładowe raporty wg stanowiska

AI Screenr obejmuje wszystkie kategorie stanowisk — od inżynierii oprogramowania, przez ochronę zdrowia, handel detaliczny, budownictwo, po hotelarstwo. Każda strona stanowiska zawiera próbny raport z rozmowy, abyś zobaczył/a, co dokładnie trafia do Twojego panelu. Poniżej wybór ról technicznych, specjalistycznych i usługowych:

RoleKategoria
Backend DeveloperTechnologia
UX DesignerProjektowanie
Data AnalystTechnologia
Financial AnalystFinanse
RecruiterHR
ParalegalPrawo
Real Estate AgentNieruchomości
Construction ManagerBudownictwo
Production ManagerProdukcja
VeterinarianWeterynaria

Albo przeglądaj wszystkie 960+ przewodniki do rozmów AI dla konkretnych stanowisk według kategorii.

Bezpieczeństwo i prywatność w całym procesie rozmowy

Każdy etap rozmowy AI ma zdefiniowane zasady przetwarzania danych. Zgoda jest zbierana przed rozpoczęciem jakiegokolwiek nagrywania — kandydaci widzą wyraźny ekran zgody obejmujący, co jest nagrywane, jak wykorzystywane i kto ma dostęp. Audio i transkrypcje są przechowywane w regionie (dostępny hosting w UE dla wymogów GDPR) z konfigurowalnym czasem retencji per stanowisko; po jego upływie dane są automatycznie usuwane.

Kandydaci mogą w każdej chwili zażądać usunięcia swoich danych w procesie samoobsługowym, a na życzenie dostarczamy Data Processing Agreement. Po stronie zatrudniającej tylko uwierzytelnieni użytkownicy w Twoim workspace mają dostęp do raportów. Linki do raportów mogą mieć automatyczne wygasanie. Pełne informacje o bezpieczeństwie i zgodności znajdziesz w sekcji Security, Privacy and Compliance na stronie oprogramowania do rozmów AI.

Gotowy/a, by spróbować?

Zacznij od 3 bezpłatnych rozmów, bez karty. Skonfiguruj pierwsze stanowisko w minutę (jednym kliknięciem) lub w 5 minut (ręcznie) i zobacz pierwszy raport z oceną tego samego dnia.

Share:

Najczęściej zadawane pytania

Ile trwa konfiguracja AI Screenr?
Mniej niż minutę przy konfiguracji jednym kliknięciem — wklej opis stanowiska, a AI przygotuje pełną konfigurację (umiejętności, reguły dyskwalifikacji, wagi ocen i do 5 szablonów pytań). Jeśli wolisz konfigurację ręczną, zaplanuj ok. 5 minut. Po starcie wszystko można edytować.
Co widzi kandydat w rozmowie AI Screenr?
Kandydat klika link do rozmowy na dowolnym urządzeniu, akceptuje zgodę, robi 10‑sekundowy test mikrofonu i zaczyna prawdziwą rozmowę głosową z AI. Bez instalacji aplikacji, bez zakładania konta, bez rezerwacji terminu. AI wita, wyjaśnia przebieg, zadaje pytania i dostosowuje dopytania do każdej odpowiedzi. Całość zwykle trwa 15 do 25 minut (konfigurowalne od 5 do 60 na stanowisko).
Jak szybko otrzymam wyniki po rozmowie?
Do 2 minut od zakończenia rozmowy przez kandydata raport z oceną jest w Twoim panelu. AI transkrybuje audio, ocenia 8 domyślnych wymiarów (plus 9. wymiar językowy dla rozmów nieanglojęzycznych), dołącza dowody z transkrypcji do każdej oceny i wystawia 4‑stopniową rekomendację zatrudnienia.
Czy mogę zmieniać kryteria oceny w trakcie procesu?
Tak. W dowolnym momencie edytujesz pytania, dopytania lub wagi ocen. Rozmowy już zakończone zachowują pierwotne wyniki — wersja kryteriów zapisuje się przy każdym raporcie, więc widzisz czystą historię wersji zamiast cichego przeliczania.
Jak udostępnić raporty AI Screenr hiring managerom?
Każdy raport ma link do udostępnienia, eksport do PDF i blok podsumowania do skopiowania na Slacka lub do e‑maila. Hiring managerowie nie potrzebują konta AI Screenr, aby otworzyć udostępniony raport. Możesz też nadać im dostęp tylko do odczytu do panelu, jeśli chcą zobaczyć więcej niż jednego kandydata naraz.
Co jeśli kandydat zamilknie lub rozłączy się?
AI czeka, delikatnie dopytuje i pozwala na pauzy bez karania kandydata. Jeśli połączenie całkiem padnie, kandydat może wznowić rozmowę z tego samego linku w ciągu 24 godzin — i kontynuować od miejsca przerwania. Częściowe rozmowy są oznaczane w raporcie, abyś mógł/mogła zdecydować o ponownym zaproszeniu.
Czy kandydaci mogą powtórzyć rozmowę AI?
Domyślnie każdy kandydat ma jedną próbę na stanowisko, by zachować fair porównywalność. Możesz ręcznie zezwolić na powtórkę w razie problemu technicznego. Poprzednia transkrypcja zostaje zachowana do wglądu.
Jak dostarczane są rozmowy kandydatom?
Kopiujesz jeden link do rozmowy i wstawiasz go w swój standardowy workflow kandydata — autoresponder ATS, e‑mail rekrutera, wiadomość z job boardu, SMS. Bez umawiania, bez projektu integracyjnego. Link działa w każdej nowoczesnej przeglądarce mobilnej i desktopowej.
Czy raport AI Screenr synchronizuje się z moim ATS?
AI Screenr współpracuje z dowolnym ATS. Możesz wkleić URL shortlisty do ATS, wyeksportować PDF, wkleić blok podsumowania lub użyć webhooka, by wysłać wyniki do dowolnego systemu przyjmującego JSON. Dostępne są dedykowane integracje z Greenhouse, Lever, Workable, Ashby, Personio i innymi dla zespołów, które chcą automatycznej synchronizacji.
Jak właściwie działa ocenianie rozmowy przez AI?
Każda odpowiedź jest oceniana względem 8 domyślnych wymiarów — Jasność komunikacji, Adekwatność, Wiedza merytoryczna, Rozwiązywanie problemów, Dopasowanie do stanowiska, Pewność, Dopasowanie behawioralne i Kompletność — w ważonej skali 0–100. Każdy wymiar ma ocenę jakości (Strong / Moderate / Weak / None), wartość pewności i bezpośrednie cytaty z transkrypcji. 9. wymiar biegłości językowej dodaje się automatycznie dla rozmów nieanglojęzycznych.

Zobacz, jak to działa – wypróbuj 3 rozmowy za darmo

Start with 3 free interviews — no credit card required.

Wypróbuj za darmo