Podcast
Questions and Answers
Vad är det primära målet med penningpolitik?
Vad är det primära målet med penningpolitik?
- Att finansiera offentliga tjänster som skola och vård.
- Att minska statsskulden genom skattehöjningar.
- Att reglera inflationen genom att justera styrräntan. (correct)
- Att öka den ekonomiska tillväxten genom att sänka skatterna.
Vad kännetecknar en högkonjunktur?
Vad kännetecknar en högkonjunktur?
- Låg konsumtion och låg arbetslöshet.
- Hög konsumtion och låg arbetslöshet. (correct)
- Hög konsumtion och hög arbetslöshet.
- Låg konsumtion och hög arbetslöshet.
Hur påverkar Riksbankens styrränta de svenska bankerna?
Hur påverkar Riksbankens styrränta de svenska bankerna?
- Den räntan som alla svenska banker måste förhålla sig till när de lånar ut pengar. (correct)
- Den är den ränta som alla amerikanska banker måste förhålla sig till när de lånar ut pengar.
- Den räntan som vissa svenska banker måste förhålla sig till när de investerar i aktiemarknaden.
- Den styr räntan som alla utländska banker måste förhålla sig till när de lånar ut pengar.
Vad är det gemensamma målet för penningpolitik och finanspolitik under en lågkonjunktur?
Vad är det gemensamma målet för penningpolitik och finanspolitik under en lågkonjunktur?
Vilken av följande beskrivningar stämmer bäst överens med begreppet 'reala strömmar'?
Vilken av följande beskrivningar stämmer bäst överens med begreppet 'reala strömmar'?
Vilket av följande kännetecknar bäst en blandekonomi?
Vilket av följande kännetecknar bäst en blandekonomi?
Vilket av följande är ett exempel på en transferering?
Vilket av följande är ett exempel på en transferering?
Vad innebär stagflation?
Vad innebär stagflation?
Vad skiljer en monopolmarknad från en marknad med perfekt konkurrens?
Vad skiljer en monopolmarknad från en marknad med perfekt konkurrens?
Vilket av följande bäst beskriver hur 'den osynliga handen' påverkar marknaden?
Vilket av följande bäst beskriver hur 'den osynliga handen' påverkar marknaden?
Flashcards
Högkonjunktur
Högkonjunktur
Ekonomiskt goda tider. Definieras av hög konsumtion och låg arbetslöshet.
Inflation
Inflation
Pengar minskar i värde till följd av ökad konsumtion och höjda priser.
Stagflation
Stagflation
När det är hög inflation och arbetslöshet samtidigt i ett land.
Oligopol
Oligopol
Signup and view all the flashcards
Lågkonjunktur
Lågkonjunktur
Signup and view all the flashcards
Utbud
Utbud
Signup and view all the flashcards
Mikroekonomi
Mikroekonomi
Signup and view all the flashcards
Makroekonomi
Makroekonomi
Signup and view all the flashcards
Realkapital
Realkapital
Signup and view all the flashcards
Transferering
Transferering
Signup and view all the flashcards
Study Notes
Préambule: Objectif et portée
- Ce document définit les modalités d'évaluation des apprentissages pour le programme Techniques de l'informatique (420.A0) au niveau collégial.
- Ces modalités complètent les politiques institutionnelles en vigueur et s'appliquent à tous les cours du programme.
Cadre de référence
- Cadre institutionnel : Politique institutionnelle d'évaluation des apprentissages (PIEA), Politique sur la langue française.
- Cadre légal : Loi sur l'enseignement collégial, Régime des études collégiales.
- Cadre spécifique au programme : Devis ministériel, énoncés de compétences, grilles d'évaluation formative et sommative.
Principes généraux de l'évaluation
- Validité: Mesure précise et pertinente des connaissances, compétences et attitudes visées.
- Fidélité: Résultats cohérents et stables.
- Transparence: Critères clairs, précis et communiqués dès le début du cours.
- Équité: Tient compte de la diversité et des besoins particuliers des étudiants.
- Imputabilité: Les enseignants sont responsables de l'évaluation.
Types d'évaluation
- Évaluation diagnostique: Identification des connaissances et compétences initiales.
- Évaluation formative: Rétroaction sur la progression.
- Évaluation sommative: Mesure de l'atteinte des objectifs à la fin d'une étape.
Formes d'évaluation
- Examens écrits (théoriques et pratiques)
- Travaux pratiques (individuels et en équipe)
- Projets (individuels et en équipe)
- Présentations orales
- Études de cas
- Simulations
- Portfolios
- Auto-évaluations
- Évaluations par les pairs
- Mises en situation
Pondération et critères d'évaluation
- La pondération est déterminée par l'enseignant, en fonction des objectifs et de la complexité des tâches.
- La pondération doit être indiquée dans le plan de cours.
- Les critères portent sur la qualité du contenu, la rigueur méthodologique, la capacité d'analyse et de synthèse, la qualité de la communication, l'autonomie, le travail d'équipe et le respect des échéances.
Grilles d'évaluation
- Les enseignants utilisent des grilles formative et sommative basées sur les critères des énoncés de compétences.
Communication des résultats
- Les résultats sont communiqués rapidement, avec une rétroaction individualisée.
Révision des évaluations
- Les étudiants ont le droit de demander une révision par écrit à l'enseignant, dans les délais prescrits.
Suivi et amélioration continue
- Les modalités d'évaluation sont révisées et améliorées régulièrement.
Conclusion : Objectifs
- Assurer une évaluation juste, rigoureuse et transparente.
- Contribuer à la réussite des étudiants et à la qualité de la formation.
Chimie Générale II: Chapitre 17 - Équilibre Chimique
Qu'est-ce que l'Équilibre Chimique?
- Un état dynamique où la vitesse de la réaction directe est égale à la vitesse de la réaction inverse.
- Les concentrations des réactifs et des produits restent constantes avec le temps, mais ne sont pas nécessairement égales.
Constante d'Équilibre
Expression Générale
- Pour la réaction réversible $aA + bB \rightleftharpoons cC + dD$, la constante d'équilibre $K_c$ est définie comme :
- $K_c = \frac{{\left[ C \right]^c \left[ D \right]^d }}{{\left[ A \right]^a \left[ B \right]^b }}$, où [A], [B], [C], [D] sont les concentrations molaires à l'équilibre, et a, b, c, d sont les coefficients stœchiométriques.
Signification de $K_c$
- $K_c >> 1$ : La réaction favorise la formation de produits.
- $K_c 0$ ), une augmentation de température favorise les produits. En réactions exothermiques ($\Delta H < 0$ ), une augmentation favorise les réactifs.
- Ajout d'un catalyseur : N'affecte pas la position de l'équilibre; accélère seulement la vitesse à laquelle l'équilibre est atteint.
Calcul des Concentrations à l'Équilibre
- Établir l'équilibre et écrire l'expression de $K_c$ ou $K_p$.
- Construire un tableau ICE (Initial, Changement, Équilibre) pour déterminer les concentrations ou pressions.
- Substituer les concentrations ou pressions dans l'expression de la constante d'équilibre et résoudre.
- Vérifier que les valeurs obtenues soient consistantes et aient un sens chimique.
Exemple d'Application
- Pour la réaction $H_2(g) + I_2(g) \rightleftharpoons 2HI(g)$, avec 1.0 mol de $H_2$ et 1.0 mol de $I_2$ dans un récipient de 1.0 L à 448 °C, $K_c$ = 50.5.
- Calcul des concentrations de $H_2$, $I_2$ et $HI$ à l'équilibre : $\left[ H_2 \right] = 0.22 , M$, $\left[ I_2 \right] = 0.22 , M$, $\left[ HI \right] = 1.56 , M$.
Conclusion sur l'Équilibre Chimique
- Un concept fondamental permettant de prédire la composition d'une réaction dans des conditions données.
- Le principe de Le Chatelier est une outil précieux pour comprendre comment différents facteurs peuvent affecter un système.
Guide de l'utilisateur pour les écouteurs sans fil
- Inclus : Écouteurs, câble USB-C, étui de chargement, 3 jeux d'embouts (S, M, L), guide.
- Aperçu des composants : embout, microphone, contrôle tactile, broches de chargement, indicateur LED, port USB-C, bouton de réinitialisation.
Mise en marche et appairage
- Les écouteurs s'allument automatiquement à l'ouverture de l'étui et s'éteignent en le refermant.
- Allumage manuel : appuyez 2 secondes sur le contrôle tactile.
- Extinction manuel : appuyez 5 secondes sur le contrôle tactile.
- Pour jumeler, ouvrez le Bluetooth sur votre appareil et sélectionnez "Tribit MoveBuds H1".
Opérations de contrôle tactiles
- Musique :
- Lecture/pause : toucher deux fois (gauche/droite).
- Piste suivante : toucher 3 fois (droite).
- Piste précédente : toucher 3 fois (gauche).
- Volume + : maintenir 2 sec (droite).
- Volume - : maintenir 2 sec (gauche).
- Assistant vocal : toucher une fois (gauche/droite).
- Basculer mode noraml/ambiant: toucher 4 fois (gauche/droite).
- Appels :
- Répondre/terminer : toucher deux fois l’un ou l’autre des écouteurs. -Rejeter : appuyer et maintenir 2 secondes.
- Activer/désactiver le microphone: toucher une fois (à vérifier la fonctionnalité).
Indicateurs LED
- Écouteurs :
- Mode d’appariement : les voyants rouge et bleu clignotent alternativement. -Jumelé : le voyant s’éteint.
- Chargement : le voyant rouge reste allumé.
- Complètement chargé : le voyant bleu reste allumé pendant 1 minute puis s’éteint.
- Étui de chargement :
- Recharge : indicateur blanc à lent clignotement.
- Complètement chargé : indicateur blanc fixe.
- Niveau actuel de la batterie :
- 66à 100 % - voyant blanc allumé pendant 3 secondes.
- 33 à 66 % - voyant blanc allumé pendant 1,5 secondes.
- 0 à 33 % : voyant blanc allumé pendant 0,5 seconde.
Réinitialisation des paramètres
- Si les écouteurs ne peuvent pas être jumelés correctement, essayez de les réinitialiser.
Étapes
- Assurez-vous qu’ils sont éteints.
- Appuyez de façon continue sur la zone de contrôle multifonction tactile des deux écouteurs pendant 10sec; la lumière rouge clignotera 3 fois.
- Replacer les écouteurs dans l’étui; retirez l’appairage du Bluetooth sur votre téléphone et refaites l’appairage avec « Tribit MoveBuds H1 ».
Spécifications
- Modèle : BTH95
- Entrée : 5V/1A
- Bluetooth5.2.
- Codecs audio : SBC, AAC.
- Portée Bluetooth : 10 mètres.
Précautions d’emploi
- Ne pas exposer à la chaleur extrême.
- Ne pas utiliser à volume élevé.
- Ne pas démonter.
- Garder hors de portée des enfants.
Machine Learning Cheat Sheet
Régression
Régression Linéaire
- Équation : $\hat{y} = w_0 + \sum_{i=1}^{n} w_i x_i$
- But : Minimiser la somme des carrés des résidus $RSS = \sum_{i=1}^{m} (y_i - \hat{y}_i)^2$
- Apprentissage : Équation normale ou descente de gradient
- Commentaires : Simple, tendance au sous-apprentissage. Utilisable pour la classification en prédisant des probabilités.
Régularisation
- But : Réduire le sur-apprentissage en pénalisant les grands poids.
- Régression Ridge (L2): Ajoute $\lambda \sum_{i=1}^{n} w_i^2$ au RSS.
- LASSO (L1): Ajoute $\lambda \sum_{i=1}^{n} |w_i|$ au RSS. Encourage la parcimonie.
- Elastic Net: Combine la régularisation L1 et L2.
Régression Polynômiale
- Idée : Ajouter des caractéristiques polynomiales aux données.
- Équation: $\hat{y} = w_0 + \sum_{i=1}^{n} w_i x_i + \sum_{i=1}^{n} \sum_{j=1}^{n} w_{ij} x_i x_j +...$
- Commentaires: Peut modéliser des relations non linéaires. Tendance au sur-apprentissage.
Support Vector Regression
- Idée : Utiliser des vecteurs de support pour définir un tube autour de la prédiction.
- But : Minimiser le nombre d’instances à l’extérieur du tube. -Commentaires : Efficaces dans les grands espaces dimensionnels.
Arbre de Décision
- Idée : Partitionner l’espace de données en régions rectangulaires.
- Apprentissage : Algorithme gourmand qui sélectionne la meilleure séparation à chaque nœud. -Commentaires : Simple, non paramétrique. Tendance au sur-apprentissage.
Méthodes d’ensemble
- Combiner plusieurs modèles pour améliorer la performance.
- Forêt Aléatoire: Moyenne des prédictions de multiples arbres de décision entraînés sur des sous-ensembles aléatoires des données et des caractéristiques. -Gradient Boosting : Ajouter séquentiellement des prédicteurs à un ensemble, chacun corrigeant son prédécesseur.
Classification
Régression Logistique
- Équation : $\hat{p} = \sigma(w_0 + \sum_{i=1}^{n} w_i x_i)$ où $\sigma(x) = \frac{1}{1 + e^{-x}}$
- Objectif : Maximiser la vraisemblance ou minimiser la perte d’entropie croisée.
- Commentaires : Simple, produit des probabilités. Peut être étendu au multi-classe à l’aide de softmax.
Machine à Vecteurs de Support
- Idée : Trouver l’hyperplan qui maximise la marge entre les classes.
- Commentaires : Efficace dans les espaces de grande dimension. Peut utiliser des astuces de noyaux pour modéliser des relations non linéaires.
Arbre de Décision
- Idée : Partitionner l’espace de données en régions rectangulaires.
- Apprentissage : Algorithme glouton qui sélectionne la meilleure séparation à chaque nœud.
- Commentaires : Simple, non paramétrique. Tendance au sur-apprentissage.
Méthodes d’ensemble
- Combiner plusieurs modèles pour améliorer la performance.
- Forêt Aléatoire: Moyenne des prédictions de multiples arbres de décision entraînés sur des sous-ensembles aléatoires des données et des caractéristiques.
- Gradient Boosting: Ajouter séquentiellement des prédicteurs à un ensemble, chacun corrigeant son prédécesseur.
K-Plus Proches Voisins
- Idée : Classer en fonction de la classe majoritaire parmi les k plus proches voisins.
- Commentaires : Simple, non paramétrique. Sensible aux caractéristiques non pertinentes et à la mise à l’échelle.
Naive Bayes
- Idée : Appliquer le théorème de Bayes avec de fortes hypothèses d’indépendance entre les caractéristiques.
- Équation : $P(y|x) = \frac{P(x|y)P(y)}{P(x)}$
- Commentaires : Simple, rapide. Peut être utilisé pour la classification de texte.
Réduction de la dimensionnalité
Analyse en Composantes Principales (ACP)
- Idée : Projeter les données sur un sous-espace de dimension inférieure tout en préservant les informations les plus importantes.
- Objectif : Maximiser la variance.
- Commentaires : Non supervisé. Sensible au dimensionnement.
Analyse Discriminante Linéaire (LDA)
- Idée : Trouver les combinaisons linéaires de caractéristiques qui séparent le mieux les classes.
- Objectif : Maximiser la variance inter-classes et minimiser la variance intra-classe.
- Commentaires : Supervisé.
Clustering
K-Moyennes
- Idée : Partitionner les données en k clusters, où chaque point de données appartient au cluster avec la moyenne la plus proche.
- Apprentissage : Itérer entre l’affectation de points de données aux clusters et la mise à jour des moyennes de cluster.
- Commentaires : Simple, sensible aux conditions initiales et à la mise à l’échelle
Clustering Hiérarchique
- Idée : Construire une hiérarchie de clusters.
- Approches : Agglomérative (ascendante) ou divisive (descendante).
- Commentaires : Peut être visualisé à l’aide d’un dendrogramme.
DBSCAN
- Idée : Regrouper les points de données qui sont étroitement regroupés, en marquant comme valeurs aberrantes les points qui se trouvent seuls dans des régions à faible densité.
- Commentaires : Peut découvrir des clusters de forme arbitraire. Robuste aux valeurs aberrantes
Sélection de modèle et évaluation
Métriques de performance
-
Régression : Erreur Quadratique Moyenne (MSE), R au carré.
-
Classification : Précision, Rappel, Score F1, AUC-ROC.
-
Clustering : Score de silhouette.
Validation Croisée
- Idée : Diviser les données en plusieurs plis, entraîner le modèle sur certains plis, et l’évaluer sur les plis restants.
- Techniques courantes : Validation croisée k-fold, validation croisée stratifiée.
Réglage des hyperparamètres
- Objectif : Trouver la meilleure combinaison d’hyperparamètres pour un modèle.
- Techniques courantes : Recherche sur grille, recherche aléatoire.
Trucs et astuces
Mise à l’échelle des caractéristiques
-
Normalisation : Mettre à l’échelle les données pour avoir une moyenne nulle et une variance unitaire.
-
Normalisation : Mettre à l’échelle les données dans la plage [0, 1].
Gestion des données manquantes
-
Imputation : Remplacer les valeurs manquantes par leur moyenne, leur médiane ou leur mode.
-
Suppression : Supprimer les lignes ou les colonnes contenant des valeurs manquantes.
Lutter contre les données déséquilibrées
-
Rééchantillonnage : Suréchantillonner la classe minoritaire ou sous-échantillonner la classe majoritaire.
-
Apprentissage tenant compte des coûts : Attribuer des coûts plus élevés à la mauvaise classification de la classe minoritaire.
Éviter toute fuites des données
-
Fractionner les données avant le prétraitement.
-
Croiser la validation des applications correctement.
-
Soyez prudent lors de l’utilisation de données chronologiques.
Apprentissage profond
Réseaux neuronaux
Notions
-
Architentecture : Couche d’entrée, couches cachées, couche de sortie.
-
Fonctions d’actavation : ReLU, sigmoïde, tanh.
-
Fonctions de pertes : Entropie croisée, MSE.
-
Optimisation : Méthode de décente du gradient, Adam.
Commun
- Réseaux Neuronaux convolutifs (CNNs). Pour la reconnaissance des images. Recurrent Neural Networks. LSTM, GRU.
Tips
- Regularization: Dropout, batch normalization.
- Initialization: Xavier/ Glorot, He
- Transfer Learning: Use pre- trained models.
Vektorer och geometri i rummet
1.1 Vektorer i rummet: Definition och operationer
- Definition: En vektor har retning och storlek, representeras som (a1, a2, a3) där a1, a2, a3 är reella tal.
- Addition: $\overrightarrow{a} + \overrightarrow{b} = (a_1 + b_1, a_2 + b_2, a_3 + b_3)$
- Subtraktion: $\overrightarrow{a} - \overrightarrow{b} = (a_1 - b_1, a_2 - b_2, a_3 - b_3)$
- Skalarmultiplikation: $k\overrightarrow{a} = (ka_1, ka_2, ka_3)$
- Egenskaper: Vektoraddition är kommutativ och associativ, skalärmultiplikation är distributiv.
1.2 Skalarproduktet: Definition, koordinater och egenskaper
- Definition: $\overrightarrow{a} \cdot \overrightarrow{b} = |\overrightarrow{a}| |\overrightarrow{b}| \cos(\theta)$, där $\theta$ är vinkeln mellan vektorerna.
- Koordinater: $\overrightarrow{a} \cdot \overrightarrow{b} = a_1b_1 + a_2b_2 + a_3b_3$
- Egenskaper: Kommutativitet, distributivitet, $k(\overrightarrow{a} \cdot \overrightarrow{b}) = (k\overrightarrow{a}) \cdot \overrightarrow{b} = \overrightarrow{a} \cdot (k\overrightarrow{b})$, samt $\overrightarrow{a} \cdot \overrightarrow{a} = |\overrightarrow{a}|^2$
- Vinkel: $\cos(\theta) = \frac{\overrightarrow{a} \cdot \overrightarrow{b}}{|\overrightarrow{a}| |\overrightarrow{b}|}$
- Ortogonalitet: Vektorer är ortogonala om $\overrightarrow{a} \cdot \overrightarrow{b} = 0$
1.3 Krydsproduktet: Definition, koordinater och egenskaper
- Definition: $\overrightarrow{a} \times \overrightarrow{b}$ är vinkelrät mot både $\overrightarrow{a}$ och $\overrightarrow{b}$. Storlek $|\overrightarrow{a} \times \overrightarrow{b}| = |\overrightarrow{a}| |\overrightarrow{b}| \sin(\theta)$
- Koordinater: $\overrightarrow{a} \times \overrightarrow{b} = (a_2b_3 - a_3b_2, a_3b_1 - a_1b_3, a_1b_2 - a_2b_1)$
- Egenskaper: Antikommutativitet, distributivitet, $k(\overrightarrow{a} \times \overrightarrow{b}) = (k\overrightarrow{a}) \times \overrightarrow{b} = \overrightarrow{a} \times (k\overrightarrow{b})$, samt $\overrightarrow{a} \times \overrightarrow{a} = \overrightarrow{0}$
- Areal: Arealet av parallelogram utspänt av $\overrightarrow{a}$ och $\overrightarrow{b}$ är $A = |\overrightarrow{a} \times \overrightarrow{b}|$
- Volym: Volymen av parallellepiped utspänt av $\overrightarrow{a}$, $\overrightarrow{b}$ och $\overrightarrow{c}$ är $V = |(\overrightarrow{a} \times \overrightarrow{b}) \cdot \overrightarrow{c}|$
Lecture 18: September 29, 2022 - Electromagnetic Momentum and Stress
Electromagnetic Fields Carry Momentum
- The electromagnetic (EM) field, similar to carrying energy, also transports momentum.
- Recall the relationship for a particle: momentum $\overrightarrow{p} = m\overrightarrow{v}$ and force $\overrightarrow{F} = \frac{d\overrightarrow{p}}{dt}$.
Momentum Density
- Define electromagnetic momentum density as: $\overrightarrow{g} = \frac{\overrightarrow{S}}{c^2} = \epsilon_0 (\overrightarrow{E} \times \overrightarrow{B})$, where $\overrightarrow{S}$ is the Poynting vector, c is the speed of light, $\overrightarrow{E}$ is the electric field and $\overrightarrow{B}$ the magnetic field.
- Hence, the momentum stored in the fields equates to $\overrightarrow{p}_{field} = \int \overrightarrow{g} d\tau = \int \epsilon_0 (\overrightarrow{E} \times \overrightarrow{B}) d\tau$.
- The electromagnetic force exerted on a volume is defined by $\overrightarrow{F} = -\frac{d\overrightarrow{p}_{field}}{dt}$.
Example: Uniform $\overrightarrow{E}$ Field Capacitor
- When an electric field is switched on within a parallel plate capacitor:
- $\overrightarrow{E} = 0$ for $t < 0$
- $\overrightarrow{E} = E_0 \hat{z}$ for $t > 0$
- The capacitor creates a magnetic field $\overrightarrow{B}$ due to the changing $\overrightarrow{E}$.
- Calculating the circulation of $\overrightarrow{B}$ gives the magnetic field: $\overrightarrow{B} = \frac{\mu_0 \epsilon_0 s}{2} \frac{dE}{dt} \hat{\phi}$
- Thus, $\overrightarrow{E}$ and $\overrightarrow{B}$ result in stored electromagnetic momentum and a force acting on the capacitor plates.
Stress in EM Fields
- Defined by the Maxwell stress tensor: $T_{ij} \equiv \epsilon_0 (E_i E_j - \frac{1}{2} \delta_{ij} E^2) + \frac{1}{\mu_0} (B_i B_j - \frac{1}{2} \delta_{ij} B^2)$.
- The tensor represents forces the EM fields exert on objects.
- The total force exerted on a volume is given by an integral over a closed surface: $\overrightarrow{F} = \oint \overleftrightarrow{T} \cdot d\overrightarrow{a}$.
Quantum Mechanics: Lecture 18 Chapter 5 The Hydrogen Atom
Schrödinger Equation in Spherical Coordinates Reminder from Lecture 17
- The Schrödinger Equation
- $-\frac{\hbar^2}{2m} \nabla^2 \psi(r, \theta, \phi) + V(r, \theta, \phi) \psi(r, \theta, \phi) = E\psi(r, \theta, \phi)$ where ψ is the wavefunction, V is the potential energy, E is energy, m is mass, and ℏ is the reduced Planck constant.
- For a spherically symmetric potential $V(r)$, the Schrödinger equation is separable in spherical coordinates.
$\psi(r, \theta, \phi) = R(r) \Theta(\theta) \Phi(\phi)$ where R,Θ,Φ are the radial and angular components.
- $-\frac{\hbar^2}{2m} \nabla^2 = -\frac{\hbar^2}{2m} \frac{1}{r^2} \frac{\partial}{\partial r} (r^2 \frac{\partial}{\partial r}) + \frac{\hat{L}^2}{2mr^2}$ where $\hat{L}$ is the angular momentum operator.
Hydrogen Atom
- The Hydrogen atom is the simplest atom, with one proton and one electron.
- The potential energy is due to the electrostatic attraction between the proton and electron:
$V(r) = -\frac{e^2}{4\pi \epsilon_0 r}$
- The Schrödinger equation for the Hydrogen atom is represented in spatial coordinates representing its angular momentum.
- Radial Equation
- The solutions to the radial equation are of the form:
$R_{nl}(r) = A_{nl} (\frac{r}{a_0})^l e^{-r/na_0} L_{n+l}^{2l+1} (\frac{2r}{na_0})$
- Quantum Numbers:
- $n = 1, 2, 3,... \infty$ (principal quantum number)
- $l = 0, 1, 2,..., n-1$ (orbital angular momentum quantum number)
- $m_l = -l, -l+1,..., 0, 1,..., l$ (magnetic quantum number)
- The potential energy is due to the electrostatic attraction between the proton and electron:
$V(r) = -\frac{e^2}{4\pi \epsilon_0 r}$
- Energy Levels:
- $E_n = -\frac{E_0}{n^2} = -\frac{13.6 eV}{n^2}$
Angular Momentum Quantum Numbers
The angular momentum has associated quantum umbers
- The hydrogen atom provides the basics: $\hat{L} = \hat{r} \times \hat{p}$ ,$\hat{L_z} = xp_y - yp_x = -i\hbar (z \frac{\partial}{\partial y} - y \frac{\partial}{\partial x}) = -i\hbar \frac{\partial}{\partial \phi}$ ,$\hat{L}^2 = \hat{L_x}^2 + \hat{L_y}^2 + \hat{L_z}^2$
- These allow simultaneous measurements since they can commute
- Eigenvalues and Eigenfunctions: $\hat{L}^2 Y_{lm}(\theta, \phi) = \hbar^2 l(l+1) Y_{lm}(\theta, \phi)$ where$\hat{L_z} Y_{lm}(\theta, \phi) = m_l \hbar Y_{lm}(\theta, \phi)$ and $Y_{lm}(\theta, \phi)$ are the spherical harmonics
- Angular momentum has an uncertainty in that simultaneity could not be measured if they didn't commute.
Matrizes: Definições, Operações e Propriedades
Definição de Matriz
- Uma matriz $A_{m \times n}$ é uma tabela de $m \cdot n$ elementos dispostos em $m$ linhas e $n$ colunas.
Tipos de Matrizes
- Matriz Quadrada: Número de linhas igual ao número de colunas ($m = n$).
- Matriz Linha: Possui apenas uma linha ($m = 1$).
- Matriz Coluna: Possui apenas uma coluna ($n = 1$).
- Matriz Nula: Todos os elementos são iguais a zero.
- Matriz Identidade: Matriz quadrada com 1 na diagonal principal e 0 nos demais elementos.
- Matriz Transposta: Matriz obtida trocando linhas por colunas.
Operações com Matrizes
Realizar operações matemáticas entre matrixes
- Adição:* elemento a elemento (soma-se).
- Subtração:* Semelhante à adição, subtrai-se elemento a elemento.
- Multiplicação por um Escalar:* Multiplica cada elemento da matriz pelo escalar.
- Multiplicação de Matrizes:* O número de colunas da primeira matriz deve ser igual ao número de linhas da segunda matriz.
Determinante
O determinante associa um número real a uma matriz quadrada, assim como a sua inverso existe ou não :
- Matriz de Ordem 1:* O determinante é o próprio elemento.
- Matriz de Ordem 2:* $\begin{vmatrix} a & b \ c & d \end{vmatrix} = ad - bc$
- Matriz de Ordem 3:* Regra de Sarrus
Algèbre linéaire - Définitions et Théorèmes
Espaces Vectoriels et Sous-Espaces
Un espace vectoriel possède des opérations d'addition et de multiplication scalaire avec des axiomes spécifiques assurant la cohérence. Un sous-espace vectoriel est un sous-ensemble non vide qui reste fermé sous l'addition et la multiplication scalaire.
Combinaison Linéaire et Indépendance
Une combinaison linéaire combine des vecteurs avec des scalaires pour former un nouveau vecteur. Des vecteurs sont linéairement indépendants si leur combinaison égale à zéro implique tous les scalaires nuls.
Espace Généré et Base
L'espace généré est l'ensemble de toutes les combinaisons linéaires possibles. Une base est un ensemble de vecteurs linéairement indépendants qui génèrent l'espace.
Dimension et Théorèmes Clés
La dimension est le nombre de vecteurs dans une base. Le théorème de la base incomplète étend un ensemble linéairement indépendant en une base. Le théorème du rang relie la dimension d'un espace à celle du noyau et de l'image d'une application linéaire.
Applications Linéaires
Une application linéaire préserve l'addition et la multiplication scalaire. Son noyau (vecteurs envoyés sur zéro) et son image (vecteurs atteints) sont cruciaux.
Matrices :
- Tableaux de nombres supportant l'addition, la multiplication scalaire et la multiplication matricielle (avec contraintes de compatibilité de taille).
- Une matrice inversible satisfait $AB=BA=I$
- Le déterminant indique si une matrice est inversible $(\mbox{det}(A)\neq 0)$
Vecteurs propres et Valeurs propres
Des vecteurs non propres peuvent être calculer via: Av = λ v soit det(A - λ I) = 0, où λ est une valeur propre associée à v
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.