Artwork

A tartalmat a The New York Times biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a The New York Times vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.
Player FM - Podcast alkalmazás
Lépjen offline állapotba az Player FM alkalmazással!

OpenAI Calls a ‘Code Red’ + Which Model Should I Use? + The Hard Fork Review of Slop

58:38
 
Megosztás
 

Manage episode 522822860 series 2792038
A tartalmat a The New York Times biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a The New York Times vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

It’s A.I. model rollout season in Silicon Valley, and OpenAI appears to be feeling the pressure. Sam Altman, the chief executive of OpenAI, sent a memo to staff on Monday declaring a “code red” effort to improve ChatGPT and delay other initiatives. We explain why the latest frontier models from Google and Anthropic have OpenAI spooked and how the company is reshuffling priorities to respond. Then, we give our honest thoughts on which A.I models we like best and share how we’re using A.I. in our day-to-day lives. And finally, we take a look at some of the most popular A.I.-generated content on the internet this week in our latest installment of the Hard Fork Review of Slop.

Additional Reading:

We want to hear from you. Email us at [email protected]. Find “Hard Fork” on YouTube and TikTok.

Subscribe today at nytimes.com/podcasts or on Apple Podcasts and Spotify. You can also subscribe via your favorite podcast app here https://www.nytimes.com/activate-access/audio?source=podcatcher. For more podcasts and narrated articles, download The New York Times app at nytimes.com/app.

  continue reading

367 epizódok

Artwork
iconMegosztás
 
Manage episode 522822860 series 2792038
A tartalmat a The New York Times biztosítja. Az összes podcast-tartalmat, beleértve az epizódokat, grafikákat és podcast-leírásokat, közvetlenül a The New York Times vagy a podcast platform partnere tölti fel és biztosítja. Ha úgy gondolja, hogy valaki az Ön engedélye nélkül használja fel a szerzői joggal védett művét, kövesse az itt leírt folyamatot https://hu.player.fm/legal.

It’s A.I. model rollout season in Silicon Valley, and OpenAI appears to be feeling the pressure. Sam Altman, the chief executive of OpenAI, sent a memo to staff on Monday declaring a “code red” effort to improve ChatGPT and delay other initiatives. We explain why the latest frontier models from Google and Anthropic have OpenAI spooked and how the company is reshuffling priorities to respond. Then, we give our honest thoughts on which A.I models we like best and share how we’re using A.I. in our day-to-day lives. And finally, we take a look at some of the most popular A.I.-generated content on the internet this week in our latest installment of the Hard Fork Review of Slop.

Additional Reading:

We want to hear from you. Email us at [email protected]. Find “Hard Fork” on YouTube and TikTok.

Subscribe today at nytimes.com/podcasts or on Apple Podcasts and Spotify. You can also subscribe via your favorite podcast app here https://www.nytimes.com/activate-access/audio?source=podcatcher. For more podcasts and narrated articles, download The New York Times app at nytimes.com/app.

  continue reading

367 epizódok

Minden epizód

×
 
Loading …

Üdvözlünk a Player FM-nél!

A Player FM lejátszó az internetet böngészi a kiváló minőségű podcastok után, hogy ön élvezhesse azokat. Ez a legjobb podcast-alkalmazás, Androidon, iPhone-on és a weben is működik. Jelentkezzen be az feliratkozások szinkronizálásához az eszközök között.

 

Gyors referencia kézikönyv

Hallgassa ezt a műsort, miközben felfedezi
Lejátszás