Artwork

A tartalmat a Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Player FM - Podcast alkalmazás
Lépjen offline állapotba az Player FM alkalmazással!

Mensch vs. Maschine: Wer urteilt fairer? - Sam Goetjes

23:52
 
Megosztás
 

Manage episode 518826122 series 3466870
A tartalmat a Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Wenn der Algorithmus die Meinung formt

Tipp: Kostenlose Software Testing Insights von internationalen Experten

"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes

In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.

Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.

Highlights:

  • Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
  • Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
  • Manipulierter Gender Bias beeinflusst Entscheidungen messbar
  • Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
  • Lege Datenquellen offen und erhöhe Nachvollziehbarkeit

Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik

  continue reading

Fejezetek

1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)

2. KIs: Menschliches Vertrauen und Bias (00:04:26)

3. Geschlechterbias in der Bewertung (00:07:52)

4. Tests und Qualitätsmanagement neu gewichten (00:13:47)

5. Rolle des Testmanagers in der Praxis (00:16:00)

6. Risiken von KI im Bewerbungsprozess (00:19:18)

7. Spannende Einblicke und Potenziale (00:22:51)

171 epizódok

Artwork
iconMegosztás
 
Manage episode 518826122 series 3466870
A tartalmat a Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a Richard Seidl - Experte für Software-Entwicklung und Testautomatisierung and Richard Seidl - Experte für Software-Entwicklung vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Wenn der Algorithmus die Meinung formt

Tipp: Kostenlose Software Testing Insights von internationalen Experten

"Und dann habe ich mich gefragt, was passiert denn, wenn die KI einen Bias hat, einen sehr starken, ich mit der KI aber so umgehe wie mit Menschen und der vertraue" - Sam Goetjes

In dieser Episode spreche ich mit Sam Goetjes über Vertrauen, Vorurteile und Fairness in KI-gestützten Entscheidungen. Ausgangspunkt ist ihre Masterarbeit: Ein Bewerbungssetting mit menschlichen und algorithmischen Empfehlungen, dazu ein manipulierter Gender Bias. Erkenntnis: Teilnehmende passten ihre Bewertungen über die Zeit an. Beim Algorithmus sogar schneller und stärker. Vertrauen entsteht nach denselben Mustern wie bei Menschen. Heftig, oder? Für uns im Testen heißt das: nicht nur Modelle und Performance prüfen, sondern Bias-Risiken monitoren, Pilotphasen sauber aufsetzen, Parallelvergleiche fahren und Datenquellen offenlegen. Wir sind beeinflussbar. Systeme auch. Wie halten wir beides in Schach? Genau darum geht es.

Sam Goetjes ist Senior Consultant für Quality Assurance und Testmanagement – mit einer Leidenschaft dafür, Software nicht nur fehlerfrei, sondern wirklich nutzerfreundlich zu machen. Nach einem Psychologiestudium mit Informatik als Nebenfach fand sie ihren Weg in die Tech-Welt über die Qualitätssicherung digitaler Gesundheitsanwendungen. Heute berät sie bei 29FORWARD GmbH Unternehmen dabei, Tests effizienter zu gestalten und Qualitätsprozesse smarter zu denken. Ihre Kombination aus technischem Know-how und psychologischem Verständnis hilft ihr, Brücken zwischen Entwicklung, QA und Nutzenden zu schlagen. Nebenbei entwickelt Sam eigene Apps und bleibt so immer nah an der Praxis.

Highlights:

  • Menschen passen ihre Bewertungen an Empfehlungen an, beim Algorithmus schneller und stärker
  • Vertrauen in Algorithmen folgt ähnlichen Mustern wie Vertrauen in Menschen
  • Manipulierter Gender Bias beeinflusst Entscheidungen messbar
  • Teste Bias-Risiken kontinuierlich, nicht nur Modellleistung
  • Lege Datenquellen offen und erhöhe Nachvollziehbarkeit

Danke an die Community-Partner des Podcasts:Alliance for Qualification | ASQF | Austrian Testing Board | dpunkt.verlag | German Testing Board | German Testing Day | GI Fachgruppe TAV | Heise | HANSER Verlag | ISTQB | iSQI GmbH | oop | QS-TAG | SIGS-DATACOM | skillsclub | Swiss Testing Board | TACON Credits: Sound | Grafik

  continue reading

Fejezetek

1. Masterarbeit: KI und menschliche Reaktionen (00:00:00)

2. KIs: Menschliches Vertrauen und Bias (00:04:26)

3. Geschlechterbias in der Bewertung (00:07:52)

4. Tests und Qualitätsmanagement neu gewichten (00:13:47)

5. Rolle des Testmanagers in der Praxis (00:16:00)

6. Risiken von KI im Bewerbungsprozess (00:19:18)

7. Spannende Einblicke und Potenziale (00:22:51)

171 epizódok

Minden epizód

×
 
Loading …

Üdvözlünk a Player FM-nél!

A Player FM lejátszó az internetet böngészi a kiváló minőségű podcastok után, hogy ön élvezhesse azokat. Ez a legjobb podcast-alkalmazás, Androidon, iPhone-on és a weben is működik. Jelentkezzen be az feliratkozások szinkronizálásához az eszközök között.

 

Gyors referencia kézikönyv

Hallgassa ezt a műsort, miközben felfedezi
Lejátszás