Vi läser valda delar av kapitel 10-16. Kapitel 10 är till stora delar en repetition av linjär algebra. Man bör naturligtvis vara konversant med vektorbegreppet, ekvationer för linjer och plan, linjära ekvationssystem, determinant, skalär- och vektorprodukt. Avsnitt 10.1 talar allmänt om att representera punktmängder i rummet och det är bra att öva på att kunna rita figurer som 10.6-10.8. Avsnitten 10.2-10.4 bör vara repetition men kontrollera att du behärskar innehållet. En sak som inte ingår i linjär algebra är förstås härledningen av kedjekurvan på s. 608-610; att cosh-funktionen dyker upp här tillhör den matematiska allmänbildningen och härledningen är inte alltför komplicerad. Något man också får vänja sig vid är den amerikanska förkärleken för att skriva basvektorerna som i, j och k. Andragradsytorna i avsnitt 10.5 bör man känna till om inte annat som ett bra åskådningsmaterial och även för deras relevans i samband med klassificering av kritiska punkter i avsnitt 13.1. Matrisalgebra kommer vi att använda i samband med kedjeregeln för funktioner av flera variabler. I kapitel 11 läser vi t.o.m. s. 671. Det handlar om kurvor i planet och rummet. Diskussionen av Corioliseffekten s. 656-659 tar vi kursivt (= hoppar över?!). Hela 11.2 kan förresten betraktas som kursivt, men de två första exemplen är någorlunda överkomliga. Kapitel 12 läses i sin helhet. Studera figurer och nivåkurvor noga; det gäller att få upp en förmåga att visualisera i 3 dimensioner. Gränsvärdesbegreppet är mer komplicerat än i 1 dimension och det lär vi få tala en del om när vi träffas. Partiella derivator är på sätt och vis detsamma som "vanliga" derivator eftersom man bara varierar en variabel i taget; det nya är att man har en förstaderivata för varje variabel, men metoderna för att beräkna dem är inte nya. Adams har valt att skriva derivator utan "prim", vilket man dock vanligen skriver ut i svenska framställningar. Tangentplan är en tillämpning på våra kunskaper i linjär algebra. Högre derivator och kedjeregeln blir naturligtvis mer komplext än i envariabelfallet, men delvis bara därför att bokhålleriet blir mer omfattande. I avsnitt 12.6 kommer det viktiga begreppet differenterbarhet som är den fruktbara generaliseringen till flera variabler av begreppet deriverbarhet i envariabelfallet; det handlar om att funktionen skall gå att approximera med ett förstagradspolynom (linearisering). I detta avsnitt kommer också den allmänna kedjeregeln i delavsnittet "Functions from n-space to m-space". Redan här kommer förresten sammanbrottet i Adams' beteckning för partiell derviata: f_1 på s. 736 betyder inte derivata utan att detta är en av de m funktionerna f_1, f_2,..., f_m medan f_1 längst ned på s. 737 åter betyder derivata. Nåväl, om vi har differentierbara (Adams ger inte ens förutsättningarna om f och g) funktioner f:R^n -> R^m och g:R^m -> R^k så är deras sammansättning (g o f):R^n -> R^k differentierbar. f:s funktionalmatris (eller totala derivata eller Jacobimatris) är den (m x n)-matris vars element på plats (i, j) är derivatan av f_i med avseende på x_j; alltså en rad för varje funktion f_i och en kolonn för varje variabel x_j; låt F vara denna matris och låt på motsvarande sätt G vara g:s funktionalmatris, som alltså är (k x m). Då är funktionalmatrisen för g o f matrisprodukten G·F [som är (k x n)]. Vektorn av partiella derivator kallas gradienten och har egenskapen att vara vinkelrät mot nivåkurvor (i tvåvariabelfallet - i trevariabelfallet blir det nivåytor). (12.7) Avsnittet om implicita funktioner (12.8) tycker jag är rätt rörigt med många olika fall men den väsentliga iden finns redan på s. 751. Funktionaldeterminanten ("Jacobianan") kommer vi att använda även i samband med variabelsubstitution i multipelintegraler. Taylors formel för flervariabelfunktioner är en enkel konsekvens av Taylors formel i envariabelfallet; återigen är det bokföringen och alla index som kan vara betungande. 13.1 handlar om hur man kan avgöra om en kritisk (vi säger ofta stationär på svenska) punkt är en extrempunkt via studium av andraderivator; det finns ju flera sådana, så situationen är mer komplicerad än i envariabelfallet. När det gäller 3 variabler är det bättre att använda kvadratkomplettering som i Ex. 9 än att använda metoden på s. 778. 13.2 använder att kontinuerliga funktioner på slutna begränsade mängder måste anta max. och min.; de söks bland stationära punkter, singulära punkter (dvs. där någon förstaderivata inte existerar) och randpunkter - se Sats 1 s. 770. Linjär programmering behöver du inte läsa. 13.3 ger en metod att bestämma extremvärden vid bivillkor, dvs största eller minsta funktionsvärde då variabeln bara får röra sig på en viss kurva eller yta given av ekvation(er). 13.4 är linjär algebra och det hoppar vi över (men kan förstås läsas av intresse). 13.5 handlar om hur man deriverar "under integraltecknet" vilket inte utan vidare är tillåtet; Sats 5 ger tillräckliga villkor, men som han påpekar mitt på s. 804 slarvar man ofta med att kolla förutsättningarna. Vi läser t.o.m. s. 805 och får då också se hur man kan lösa integralekvationer genom derivering. 13.6 visar att Newtons metod också fungerar i högre dimension. Iden förklaras från mitten av s. 812; man använder tangentplanen till de två ytor till vilka man försöker hitta ett gemensamt nollställe, vilket är analogt med hur man använder tangenten i envariabelfallet. I 14.1 definieras dubbelintegral väsentligen helt analogt med hur enkelintegral definierats i 5.3; jag förstår faktiskt inte riktigt varför han inte använder över- och undersummor även här. Situationen i två dimensioner är naturligtvis litet mer komplicerad eftersom området kan se ut på många olika sätt, men man utgår från rektanglar och använder sedan knepet i Def. 2 s. 821 för allmänna områden. Enkla och viktiga egenskaper listas på s. 822; märk hur man klarar en del integraler via okulärbesiktning på s. 823; sådana observationer kan vara nyttiga även för att förenkla räkningar även i fall där de inte genast ger hela svaret. Huvudmetoden för beräkning av dubbelintegraler är itererad enkeliteration, vilket man kan göra om området är x-enkelt eller y-enkelt eller kan uppdelas i ändligt många enkla delar (s. 825). Här är det förstås viktigt att man behärskar sina enkelintegraler. Generaliserade integraler (14.3) definieras genom gränsvärden precis som i envariabelfallet. I envariabelfallet kan man göra variabelsubstitution för att komma till rätta med en besvärlig integrand; i flervariabelfallet är det ofta områdets utseende som gör att man väljer en viss substitution. En av de viktigaste är den polära, men avsnitt 14.4 beskriver även variabelsubst. generellt (Sats 4). Märk funktionaldeterminantens roll. 14.5 innebär inte något egentligt konceptuellt nytt, men det blir ju en variabel till att hålla reda på. De viktigaste substitutionerna (14.6) att hålla reda på i trippelintegraler är cylindriska, som ju bara är polära koordinater i xy-planet medan z är oförändrad, och sfäriskt polära, som mera på allvar är en substitution i 3 dimensioner. Märk där noga intervallen för de båda vinklarna. I 14.7 tar vi bara upp areaberäkning för ytor i rummet; den intresserade läser också om de fysikaliska tillämpningarna (eller kommer ihåg var de finns om det blir aktuellt för fysikens skull!). Vektorfält är funktioner från rummet till rummet (eller planet till planet, vilket är det som vi mest kommer att syssla med) och brukar illustreras genom att man ritar vektorn F(x, y, z) med angreppspunkt (x, y, z) för ett lämpligt urval punkter (x, y, z). Här (s. 876) ser vi åter felet i Adams' notation eftersom F_1 nu betyder vektorn F:s första komponent, inte dess derivata m.a.p. den första variabeln, vilket vi haft förut. Nåväl, vilket som avses framgår, som det brukar heta, av sammanhanget. Begreppet konservativt (kraft)fält är viktigt i fysiken och även för oss, bl.a. därför att matematiken blir mer lätthanterlig då. Läs t.o.m. Ex. 5 och dess Anm. s. 888. Kurvintegraler (man säger även linjeintegraler även på svenska, men undviker det helst, eftersom det oftast inte är räta linjer det handlar om) introduceras i 15.3 och framför allt i 15.4 eftersom det är kurvintegraler av vektorfält som är det mest intressanta. Sats 1 s. 901 är ett huvudnummer och har innebörden att för konservativa fält beror kurvintegralen bara på kurvans ändpunkter (och vice versa). I 16.2 kommer vi att få ett enkelt kriterium på konservativitet. 15.5 och 15.6 hoppar vi över; de har tillämpningar både för fysiker och kemister men är nog rätt tunga att tillägna sig på egen hand. Om behovet uppstår för dessa ämnens skull går det ju bra att själv studera dessa avsnitt med den bakgrund vi redan har från Adams. 16.1 och 16.2 är i mycket skrivna för 3 dimensioner, men vi är huvudsakligen intresserade av den 2-dimensionella versionen. Gradient har vi mött förut, och här kommer nu två nya tillämpningar av nabla-operatorn, nämligen divergens (div) och rotation (rot, på engelska kallad curl); den 2-dim versionen finns överst på s. 929. Innehållet i 16.1 f.ö. är mest av intresse för fysiker och vi går inte in på det. I 16.2 hoppar vi över de formelspäckade s.936-938; (g) och (h) på s. 937 bör du dock känna till - handlar bara om likhet mellan blandade andraderivator som i Sats 1 s.716. Sats 4 med bevis s. 939-940 är däremot viktig; skriv gärna ut den 2-dimensionella versionen av satsen. Den viktiga Greens formel (16.3) ger ett samband mellan kurvintegral och dubbelintegral och avslutar vår kurs. I följande avsnitt kommer två generaliseringar av den till högre dimension: divergenssatsen (Gauss' sats) och Stokes' sats. Även detta är sådant som den intresserade kan återkomma till vid behov, liksom tillämpningarna i 16.6.