passage au vouvoiement dans le notebook culture IA
This commit is contained in:
@@ -48,40 +48,13 @@
|
||||
"cell_type": "markdown",
|
||||
"id": "cell-4",
|
||||
"metadata": {},
|
||||
"source": [
|
||||
"Tu utilises peut-être ChatGPT, Gemini ou Copilot. Ces outils reposent tous sur un **LLM** — *Large Language Model*, ou grand modèle de langage.\n",
|
||||
"\n",
|
||||
"Un LLM, c'est fondamentalement une machine qui **prédit le prochain mot**.\n",
|
||||
"\n",
|
||||
"Imagine la phrase : *\"La nuit, tous les chats sont...\"*\n",
|
||||
"\n",
|
||||
"Le modèle attribue une probabilité à chaque mot possible :\n",
|
||||
"\n",
|
||||
"| Mot | Probabilité |\n",
|
||||
"|---|---|\n",
|
||||
"| gris | 0.59 |\n",
|
||||
"| endormis | 0.19 |\n",
|
||||
"| fatigués | 0.19 |\n",
|
||||
"| verts | 0.001 |\n",
|
||||
"| cuillère | 0.0001 |\n",
|
||||
"\n",
|
||||
"Le mot choisi n'est pas forcément le plus probable — ça dépend d'un paramètre appelé **température**.\n",
|
||||
"\n",
|
||||
"> **Température basse (ex. 0.0)** → le modèle choisit presque toujours le mot le plus probable. Réponses prévisibles, factuelles.\n",
|
||||
">\n",
|
||||
"> **Température haute (ex. 1.0)** → le modèle peut choisir des mots moins probables. Réponses plus créatives, parfois surprenantes."
|
||||
]
|
||||
"source": "Vous utilisez peut-être ChatGPT, Gemini ou Copilot. Ces outils reposent tous sur un **LLM** — *Large Language Model*, ou grand modèle de langage.\n\nUn LLM, c'est fondamentalement une machine qui **prédit le prochain mot**.\n\nImaginez la phrase : *\"La nuit, tous les chats sont...\"*\n\nLe modèle attribue une probabilité à chaque mot possible :\n\n| Mot | Probabilité |\n|---|---|\n| gris | 0.59 |\n| endormis | 0.19 |\n| fatigués | 0.19 |\n| verts | 0.001 |\n| cuillère | 0.0001 |\n\nLe mot choisi n'est pas forcément le plus probable — ça dépend d'un paramètre appelé **température**.\n\n> **Température basse (ex. 0.0)** → le modèle choisit presque toujours le mot le plus probable. Réponses prévisibles, factuelles.\n>\n> **Température haute (ex. 1.0)** → le modèle peut choisir des mots moins probables. Réponses plus créatives, parfois surprenantes."
|
||||
},
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
"id": "cell-5",
|
||||
"metadata": {},
|
||||
"source": [
|
||||
"#### Question 1\n",
|
||||
"Si tu demandes à un LLM d'écrire un poème, quelle température lui donnerais-tu ? Et si tu lui demandes de corriger un code Python, laquelle ?\n",
|
||||
"\n",
|
||||
"*(Réponds en colorant ton texte : `<span style=\"color:blue\">ta réponse</span>`)*"
|
||||
]
|
||||
"source": "#### Question 1\nSi vous demandez à un LLM d'écrire un poème, quelle température lui donneriez-vous ? Et si vous lui demandez de corriger un code Python, laquelle ?\n\n*(Répondez en colorant votre texte : `<span style=\"color:blue\">votre réponse</span>`)*"
|
||||
},
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
@@ -159,10 +132,7 @@
|
||||
"cell_type": "markdown",
|
||||
"id": "cell-12",
|
||||
"metadata": {},
|
||||
"source": [
|
||||
"#### Question 2\n",
|
||||
"Deux entreprises concurrentes entraînent chacune un LLM. L'une est américaine, l'autre chinoise. Penses-tu que leurs modèles répondront de la même façon à des questions politiques ou historiques sensibles ? Pourquoi ?"
|
||||
]
|
||||
"source": "#### Question 2\nDeux entreprises concurrentes entraînent chacune un LLM. L'une est américaine, l'autre chinoise. Pensez-vous que leurs modèles répondront de la même façon à des questions politiques ou historiques sensibles ? Pourquoi ?"
|
||||
},
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
@@ -197,7 +167,7 @@
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
"id": "630245b9",
|
||||
"source": "#### Question 3b\nTu utilises un LLM pour rédiger un texte. Ton cerveau travaille moins. Est-ce grave si tu comprends quand même le résultat ? Et si tu ne le relis pas ?",
|
||||
"source": "#### Question 3b\nVous utilisez un LLM pour rédiger un texte. Votre cerveau travaille moins. Est-ce grave si vous comprenez quand même le résultat ? Et si vous ne le relisez pas ?",
|
||||
"metadata": {}
|
||||
},
|
||||
{
|
||||
@@ -227,10 +197,7 @@
|
||||
"cell_type": "markdown",
|
||||
"id": "cell-16",
|
||||
"metadata": {},
|
||||
"source": [
|
||||
"#### Question 3\n",
|
||||
"Est-ce que ça change ta façon d'utiliser ces outils au quotidien ? Pour quelles tâches penses-tu que l'usage d'un LLM est justifié, et pour lesquelles ça te semble excessif ?"
|
||||
]
|
||||
"source": "#### Question 3\nEst-ce que ça change votre façon d'utiliser ces outils au quotidien ? Pour quelles tâches pensez-vous que l'usage d'un LLM est justifié, et pour lesquelles ça vous semble excessif ?"
|
||||
},
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
@@ -261,10 +228,7 @@
|
||||
"cell_type": "markdown",
|
||||
"id": "cell-19",
|
||||
"metadata": {},
|
||||
"source": [
|
||||
"#### Question 4\n",
|
||||
"Un employeur utilise un LLM pour trier des CV. Quels risques cela comporte-t-il selon toi ? Comment pourrait-on les limiter ?"
|
||||
]
|
||||
"source": "#### Question 4\nUn employeur utilise un LLM pour trier des CV. Quels risques cela comporte-t-il selon vous ? Comment pourrait-on les limiter ?"
|
||||
},
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
@@ -288,28 +252,13 @@
|
||||
"cell_type": "markdown",
|
||||
"id": "cell-22",
|
||||
"metadata": {},
|
||||
"source": [
|
||||
"Les LLMs sont impressionnants — mais ils reposent sur des mécanismes que tu peux comprendre.\n",
|
||||
"\n",
|
||||
"Après les vacances, nous allons étudier l'algorithme **K-NN** (*K Nearest Neighbors* — K plus proches voisins). C'est l'un des algorithmes de base du **machine learning** — l'apprentissage automatique.\n",
|
||||
"\n",
|
||||
"Le principe : pour classer un objet inconnu, on regarde les *k* objets les plus proches qu'on connaît déjà, et on attribue à l'inconnu la classe majoritaire parmi eux.\n",
|
||||
"\n",
|
||||
"**Exemple :** on veut déterminer si une tumeur est bénigne ou maligne à partir de mesures (taille, forme...). On regarde les *k* tumeurs les plus similaires dans notre base de données, et on prédit la classe la plus fréquente.\n",
|
||||
"\n",
|
||||
"C'est exactement ce que font, à une tout autre échelle, les algorithmes de recommandation de YouTube ou Spotify : *\"les utilisateurs les plus proches de toi ont aussi aimé...\"*\n",
|
||||
"\n",
|
||||
"Les LLMs vont beaucoup plus loin — mais ils partagent avec K-NN l'idée fondamentale : **apprendre à partir d'exemples**."
|
||||
]
|
||||
"source": "Les LLMs sont impressionnants — mais ils reposent sur des mécanismes que vous pouvez comprendre.\n\nAprès les vacances, nous allons étudier l'algorithme **K-NN** (*K Nearest Neighbors* — K plus proches voisins). C'est l'un des algorithmes de base du **machine learning** — l'apprentissage automatique.\n\nLe principe : pour classer un objet inconnu, on regarde les *k* objets les plus proches qu'on connaît déjà, et on attribue à l'inconnu la classe majoritaire parmi eux.\n\n**Exemple :** on veut déterminer si une tumeur est bénigne ou maligne à partir de mesures (taille, forme...). On regarde les *k* tumeurs les plus similaires dans notre base de données, et on prédit la classe la plus fréquente.\n\nC'est exactement ce que font, à une tout autre échelle, les algorithmes de recommandation de YouTube ou Spotify : *\"les utilisateurs les plus proches de vous ont aussi aimé...\"*\n\nLes LLMs vont beaucoup plus loin — mais ils partagent avec K-NN l'idée fondamentale : **apprendre à partir d'exemples**."
|
||||
},
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
"id": "cell-23",
|
||||
"metadata": {},
|
||||
"source": [
|
||||
"#### Question 5\n",
|
||||
"À ton avis, quelle est la différence entre un programme \"classique\" (comme ceux que tu as écrits en Python cette année) et un programme qui *apprend* ? Essaie d'expliquer avec tes mots."
|
||||
]
|
||||
"source": "#### Question 5\nÀ votre avis, quelle est la différence entre un programme \"classique\" (comme ceux que vous avez écrits en Python cette année) et un programme qui *apprend* ? Essayez d'expliquer avec vos mots."
|
||||
},
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
@@ -323,15 +272,7 @@
|
||||
"cell_type": "markdown",
|
||||
"id": "cell-25",
|
||||
"metadata": {},
|
||||
"source": [
|
||||
"---\n",
|
||||
"\n",
|
||||
"### Pour aller plus loin (optionnel)\n",
|
||||
"\n",
|
||||
"Deux vidéos excellentes de David Louapre (Science Étonnante) si le sujet t'intéresse :\n",
|
||||
"<li><a href=\"https://www.youtube.com/watch?v=7ell8KEbhJo\">Ce qui se cache derrière le fonctionnement de ChatGPT</a>\n",
|
||||
"<li><a href=\"https://www.youtube.com/watch?v=YcIbZGTRMjI\">Les 4 étapes pour entraîner un LLM</a>"
|
||||
]
|
||||
"source": "---\n\n### Pour aller plus loin (optionnel)\n\nDeux vidéos excellentes de David Louapre (Science Étonnante) si le sujet vous intéresse :\n<li><a href=\"https://www.youtube.com/watch?v=7ell8KEbhJo\">Ce qui se cache derrière le fonctionnement de ChatGPT</a>\n<li><a href=\"https://www.youtube.com/watch?v=YcIbZGTRMjI\">Les 4 étapes pour entraîner un LLM</a>"
|
||||
},
|
||||
{
|
||||
"cell_type": "markdown",
|
||||
|
||||
Reference in New Issue
Block a user