Archiv der Kategorie: Elfenbeinturm

Aiming High

dr_jonas_schoeley

Image Source

I’m not a doctor yet but it’s nice (if unintended) that my talk at this years PAA conference lead to people thinking otherwise.

Stochasticity vs. Determination

Last week I had an argument about the statistical interpretation of chance and pre-determination. Are they an attribute of the processes/phenomena we model or are they a product of the way we model a process? I believe the latter.

Stochasticity relates to our level of understanding regarding a phenomenon. If we would have complete information about a system and its states (Laplace’s demon) there would be no need for probabilistic models. Everything would be truly deterministic. Think of the moons changing phases, solar eclipses and planetary constellations. All these are governed by well known rules and applying these rules we can predict these variables perfectly without referring to chance. But this is not because these phenomena are in themselves deterministic, it is because we understand them on a deterministic level. Being completely ignorant to the mechanics of our solar system we could still try to predict solar eclipses in a probabilistic way. Looking at past data we would infer the probability to observe a solar eclipse within the next 10 years. This is the field social science plays at.

Explaining the difference between deterministic and stochastic components of a phenomena I was given the following example: „The event of winning the lottery is produced by my decision to play lottery (deterministic) vs. the outcome of the lottery (stochastic).“ OK, from an individuals point of view this distinction makes sense. But being the scientist who models lottery losses we might or might not know if someone will play the lottery, or how regularly. Depending on our level of knowledge we might use probability distributions to model our uncertainty and therefore treat the decision to play the lottery as a stochastic phenomena.

Stochastic processes versus deterministic processes. It’s not them, it’s us.

Essaysammlung 2009–2011

Hier ein paar Essays, die sich über die Zeit des Studiums der Sozialwissenschaften angesammelt haben. Die Noten stehen da, damit nach Inspiration suchende Leute eine Ahnung bekommen, was diese Zeilen im akademischen Kontext wert sind.

Der Fremde in der Großstadt? – 1,3

Simmel ordnet dem Fremden in einer Gemeinschaft eine Sonderrolle mit zahlreichen sozialen Eigenschaften zu. Simmel konstruiert den Fremden aber vor einem dörflich/kleinstädtischen Hintergrund. In diesem Essay wird ergründet ob Simmels Charakterisierung des Fremden auch in einem großstädtischen Umfeld Sinn macht – einem Umfeld also, in dem Fremdheit zwischen Menschen der Normalfall ist.

Fremde.pdf

Keywords: Georg Simmel, Fremdheit, Großstadt, Urbanität


Deutschland ­ Global Player ohne Global Cities? – 1,0

Städte wie New York, London, Tokyo und Honkong sind Knoten– und Kontrollpunkte der globalen Wirtschaftswelt und als solche auch Anlaufstellen globaler Migration. Die Global–City Hypothese versucht die Migration in Metropolen unter Rückgriff auf globale Kapital- und Warenströme zu erklären. In dieser Arbeit wird untersucht, ob sich die Global–City Hypothese auch zur Erklärung der Migration in ausgewählte deutsche Großstädte eignet.

GlobalCities.pdf

Keywords: Global–City Hypothese, Weltsystemtheorie, internationale Migration


Sozialkapital bei der Betrachtung von Arbeitslosigkeit – 1,0

Über die Zusammenhänge von „Vitamin B“ und der Chance auf einen Arbeitsplatz ist vieles bekannt. In diesem Essay wird eine weniger erfolgszentrierte Perspektive eingenommen und die Frage nach dem Zusammenhang von sozialen Beziehungen und dem Verbleib in der (Langzeit-)Arbeitslosigkeit gestellt. Die zentrale These: Arbeitslosigkeit und Armut an Sozialkontakten bedingen sich gegenseitig und können im Fall der Langzeitarbeitslosigkeit einen Teufelskreis bilden.

SozKap.pdf

Keywords: Sozialkapital, Arbeitslosigkeit, soziale Netzwerke


Über die Vorhersagbarkeit sozialen Handelns – 1,0

Zu welchem Grad ist soziales Handeln vorhersehbar oder radikaler: Ist soziales Handeln determinierbar? In diesem Essay wird der Versuch gemacht bestimmte Konzepte der Vorhersage von Ereignissen (als welche soziale Handlungen gesehen werden können) vorzustellen und auf ihre praktischen, aber vor allem auf ihre theoretischen Grenzen hinzuweisen.

Vorhersagbarkeit.pdf

Keywords: Determinismus, soziale Physik, Vorhersage, soziales Handeln


Der Geburtenrückgang in westlichen Industrieländern: Zwei Erklärungsmodelle im Vergleich – 1,0

Erklärungsmodelle des Geburtenrückgangs in westlichen Industrieländern von Beck–Gernsheim, Schmitt und Kaufmann werden erklärt und gegenübergestellt.

Geburtenrückgang.pdf

Keywords: Geburtenrückgang, demographischer Wandel, Fertilität


Das Internet im Kontext der Differenzierung und Individualisierung des Lebenslaufes am Beispiel von Online-Partnerbörsen und Telecommuting – 1,7

Ziel dieses Essays ist es, mögliche Auswirkungen der gesellschaftlichen Integration des Internets auf den Lebenslauf vorzustellen und in den Wirkungsmechanismen einführend zu erklären. Das Internet wird hierbei als ein Faktor begriffen, der Destandardisierungs- und Individualisierungsprozesse im Lebenslauf vorantreiben kann. Argumentiert wird Beispielhaft anhand von Online–Partnerbörsen und Telecommuting.

Internet.pdf

Keywords: Internet, Lebenslauf, Destandardisierung, Individualisierung


Die Abschwächung des Effektes der Bildungsexpansion auf den Auszug aus dem Elternhaus – 1,0

Es wird argumentiert, dass die voranschreitende Bildungsexpansion nicht mehr eindeutig aufschiebend auf den Auzugszeitpunkt aus dem Elternhaus wirkt. Vorgestellt werden theoretische Gründe für eine gestiegene Motivation den Wohnort zu Studienbeginn zu wechseln sowie empirische Befunde für die These des zunehmenden Auszugs aus dem Elternhaus zu Studienbeginn.

Auszug.pdf

Keywords: Bildungsexpansion, Auszug aus dem Elternhaus, räumliche Mobilität


Empirische Wirtschaftsforschung in R

Dies ist die Berechnung verschiedener intrinsisch linearer Regressionsmodelle zur empirischen Validierung der keynesianischen Geldnachfragefunktion mit der Sprache „R“. Ich habe den Sweave (also LaTeX und R) Quellcode mit hochgeladen, falls jemand ein Beispiel braucht wie man R und LaTeX miteinander arbeiten lässt.

EmpWifoR.pdf EmpWifoR.Snw

Keywords: R, lineare Regression, empirische Wirtschaftsforschung, Keynesianismus


Creative Commons License
This work is licensed under a Creative Commons Attribution-NonCommercial 3.0 Unported License.

Bachelorarbeit!

Eigentlich wollte ich für meine Bachelorarbeit  ja bahnbrechende Forschung zu eventuell vorhandenen neuen Lebenslaufsmustern, welche sich unter der Oberfläche von Individualisierungsprozessen verstecken mögen, machen – Habe ich nicht gemacht…

Stattdessen: Erwerbseinstieg im Wandel.

  • Wie hat sich der Erwerbseinstieg junger Menschen in der BRD bis heute verändert? → Alles ganz furchtbar.
  • Wie werden die beobachteten Veränderungen von der Lebenslaufforschung eingeschätzt? → Von „Was für Veränderungen?“ bis „Apocalypse Now!“
  • Wieso der Disput und wer hat denn nun Recht? → Ich werde doch nicht spoilern. Selber lesen: BA  als PDF

Ich habe die Arbeit in LaTeX erstellt und vielleicht hilft der Quelltext ja jemandem weiter. Viel besonderes steht da nicht drin. Ich habe „tikz“ benuntzt um die in „R“ erstellten Graphen direkt in Latex zu rendern. Dazu muss man den entsprechenden Befehl in R eingeben und das so generierte Dokument wiederum mit einen tikz Befehl (diesmal in LaTeX) einbinden. Der Vorteil? Es sieht besser aus, wenn Latex die Graphen selbst generiert.

Ich habe den Quelltext mit dem Zusatz „.doc“ hochgeladen, da ich „.tex“ Dateien nicht hochladen kann. Es handelt sich aber um eine simple Textdatei. Einfach mit einem Text-Editor öffnen.

BA LaTeX Quelltext

Man ist ja immer so wichtig heutzutage

Strahlung in Tokio und Umgebung – Live Update

ENGLISH: I collect the data from various geiger-counter-live-streams in Japan and display these informations with the help of the statistical software „R“. I’m hereby trying to make independent information possible. Please feel free to share the link and the data/graphs.

UPDATE: I stopped logging the data, because until now (2011-04-29) the webstream data showed no evidence of an unusual high radiation at Tokyo or the surrounding area. That doesn’t mean that there isn’t any, but I can only speak for the data I analysed.

Hier die Geigerzähler-Streams:

Die Geigerzähler befinden sich alle in Tokio oder in der näheren Umgebung.

Die Werte sind untereinander, wie bereits in den Komentaren angemerkt, schlecht vergleichbar. Sie können sich aber gegenseitig kontrollieren (z. B. wenn alle Werte gleichzeitig steigen).

Die unten stehende Graphen zeigen den Verlauf der cpm (Zerfälle pro Minute – http://de.wikipedia.org/wiki/Zerf%C3%A4lle_pro_Minute)  oder die µSv/h (http://de.wikipedia.org/wiki/Sievert_%28Einheit%29)über die Zeit. Leider habe ich keine weiteren Informationen zu dem Standort des Messgerätes (z. B. ob es innen oder im Freien misst), oder der Messenden.

Viele Werte fehlen, da der Stream zwischendurch down ist (vermutlich wegen regelmäßigen Stromsperren) oder weil ich schlafe (ein Skript kümmert sich jetzt im Dunkeln um die Screenshots).

Ich kann keine Interpretation der Werte liefern, hoffe aber über diese, von mir regelmäßig aktualisierte Seite, ein Stück weit unabhängige (?) Information zu ermöglichen.

Hier eine Interpretationshilfe für µSv:

http://xkcd.com/radiation/

Hier die Graphen:

Source: [tokyo1 – http://www.ustream.tv/channel/geiger-counter-tokyo%5D%5Btokyo2http://www.ustream.tv/channel/%E3%82%AC%E3%82%A4%E3%82%AC%E3%83%BC%E3%82%AB%E3%82%A6%E3%83%B3%E3%82%BF%5D  [ueda1a – http://www.ustream.tv/channel/ueda-nagano%5D Own calculations, own visualisation. Dieses Werk bzw. Inhalt steht unter einer Creative Commons Namensnennung 3.0 Deutschland Lizenz.


Source: [moriya1 – http://www.ustream.tv/recorded/13406619%5D [tokyo3 – http://www.ustream.tv/channel/%E6%94%BE%E5%B0%84%E7%B7%9A%E6%B8%AC%E5%AE%9A-%E6%9D%B1%E4%BA%AC-%E7%8B%9B%E6%B1%9F%5D [sakura1 – http://www.ustream.tv/channel/%E5%9F%BC%E7%8E%89%E7%9C%8C%E3%81%95%E3%81%84%E3%81%9F%E3%81%BE%E5%B8%82%E6%A1%9C%E5%8C%BA%E3%81%AE%E6%94%BE%E5%B0%84%E7%B7%9A%E9%87%8F%5D [urayasu1 – http://www.ustream.tv/channel/%E6%94%BE%E5%B0%84%E7%B7%9A%E6%B8%AC%E5%AE%9A-%E5%8D%83%E8%91%89%5D [ueda1b – http://www.ustream.tv/channel/ueda-nagano%5D Own calculations, own visualisation. Dieses Werk bzw. Inhalt steht unter einer Creative Commons Namensnennung 3.0 Deutschland Lizenz.

Hier die zugrundeliegenden Daten als .xls:

Data_Rad_Jp

Hier der verwendete R-Code:

par(family = "mono", bty = "l")

# data input

data <- read.csv("/media/Data/PRODUKTION/Blog/Artikel/2011/Strahlung_in_Tokio_Live_Update/Data_Rad_Jp.csv")

tokyo1 <- na.omit(data[ ,c(1, 2)])
tokyo2 <- na.omit(data[ ,c(3, 4)])
tokyo3 <- na.omit(data[ ,c(5, 6)])
moriya1 <- na.omit(data[ ,c(7, 8)])
sakura1 <- na.omit(data[ ,c(9, 10)])
ueda1a <- na.omit(data[ ,c(11, 13)])
ueda1b <- na.omit(data[ ,c(12, 13)])
urayasu1 <- na.omit(data[ ,c(14, 15)])

# tokyo1 calculation

time.tokyo1.pre <- as.POSIXct(tokyo1[ ,2], format = "%Y-%m-%d %H:%M", tz = "Europe/Berlin")
time.tokyo1 <- strptime((format(time.tokyo1.pre, tz = "Asia/Tokyo", usetz = TRUE)), format = "%Y-%m-%d %H:%M")

time.series.tokyo1 <- 0

for(i in 1:length(time.tokyo1) - 1) {
   time.series.tokyo1[i+1] <- difftime(time.tokyo1[i+1], time.tokyo1[1], units = c("mins"))
}

linreg.tokyo1.pre <- lm(tokyo1[ ,1] ~ time.series.tokyo1)
linreg.tokyo1 <- fitted.values(linreg.tokyo1.pre)

# tokyo2 calculation

time.tokyo2.pre <- as.POSIXct(tokyo2[ ,2], format = "%Y-%m-%d %H:%M", tz = "Europe/Berlin")
time.tokyo2 <- strptime((format(time.tokyo2.pre, tz = "Asia/Tokyo", usetz = TRUE)), format = "%Y-%m-%d %H:%M")

time.series.tokyo2 <- 0

for(i in 1:length(time.tokyo2) - 1) {
   time.series.tokyo2[i+1] <- difftime(time.tokyo2[i+1], time.tokyo2[1], units = c("mins"))
}

linreg.tokyo2.pre <- lm(tokyo2[ ,1] ~ time.series.tokyo2)
linreg.tokyo2 <- fitted.values(linreg.tokyo2.pre)

# tokyo3 calculation

time.tokyo3.pre <- as.POSIXct(tokyo3[ ,2], format = "%Y-%m-%d %H:%M", tz = "Europe/Berlin")
time.tokyo3 <- strptime((format(time.tokyo3.pre, tz = "Asia/Tokyo", usetz = TRUE)), format = "%Y-%m-%d %H:%M")

time.series.tokyo3 <- 0

for(i in 1:length(time.tokyo3) - 1) {
   time.series.tokyo3[i+1] <- difftime(time.tokyo3[i+1], time.tokyo3[1], units = c("mins"))
}

linreg.tokyo3.pre <- lm(tokyo3[ ,1] ~ time.series.tokyo3)
linreg.tokyo3 <- fitted.values(linreg.tokyo3.pre)

# moriya1 calculation

time.moriya1.pre <- as.POSIXct(moriya1[ ,2], format = "%Y-%m-%d %H:%M", tz = "Europe/Berlin")
time.moriya1 <- strptime((format(time.moriya1.pre, tz = "Asia/Tokyo", usetz = TRUE)), format = "%Y-%m-%d %H:%M")

time.series.moriya1 <- 0

for(i in 1:length(time.moriya1) - 1) {
   time.series.moriya1[i+1] <- difftime(time.moriya1[i+1], time.moriya1[1], units = c("mins"))
}

linreg.moriya1.pre <- lm(moriya1[ ,1] ~ time.series.moriya1)
linreg.moriya1 <- fitted.values(linreg.moriya1.pre)

# sakura1 calculation

time.sakura1.pre <- as.POSIXct(sakura1[ ,2], format = "%Y-%m-%d %H:%M", tz = "Europe/Berlin")
time.sakura1 <- strptime((format(time.sakura1.pre, tz = "Asia/Tokyo", usetz = TRUE)), format = "%Y-%m-%d %H:%M")

time.series.sakura1 <- 0

for(i in 1:length(time.sakura1) - 1) {
   time.series.sakura1[i+1] <- difftime(time.sakura1[i+1], time.sakura1[1], units = c("mins"))
}

linreg.sakura1.pre <- lm(sakura1[ ,1] ~ time.series.sakura1)
linreg.sakura1 <- fitted.values(linreg.sakura1.pre)

# ueda1a calculations

time.ueda1a.pre <- as.POSIXct(ueda1a[ ,2], format = "%Y-%m-%d %H:%M", tz = "Europe/Berlin")
time.ueda1a <- strptime((format(time.ueda1a.pre, tz = "Asia/Tokyo", usetz = TRUE)), format = "%Y-%m-%d %H:%M")

time.series.ueda1a <- 0

for(i in 1:length(time.ueda1a) - 1) {
   time.series.ueda1a[i+1] <- difftime(time.ueda1a[i+1], time.ueda1a[1], units = c("mins"))
}

linreg.ueda1a.pre <- lm(ueda1a[ ,1] ~ time.series.ueda1a)
linreg.ueda1a <- fitted.values(linreg.ueda1a.pre)

# ueda1b calculation

time.ueda1b.pre <- as.POSIXct(ueda1b[ ,2], format = "%Y-%m-%d %H:%M", tz = "Europe/Berlin")
time.ueda1b <- strptime((format(time.ueda1b.pre, tz = "Asia/Tokyo", usetz = TRUE)), format = "%Y-%m-%d %H:%M")

time.series.ueda1b <- 0

for(i in 1:length(time.ueda1b) - 1) {
   time.series.ueda1b[i+1] <- difftime(time.ueda1b[i+1], time.ueda1b[1], units = c("mins"))
}

linreg.ueda1b.pre <- lm(ueda1b[ ,1] ~ time.series.ueda1b)
linreg.ueda1b <- fitted.values(linreg.ueda1b.pre)

# urayasu1 calculation

time.urayasu1.pre <- as.POSIXct(urayasu1[ ,2], format = "%Y-%m-%d %H:%M", tz = "Europe/Berlin")
time.urayasu1 <- strptime((format(time.urayasu1.pre, tz = "Asia/Tokyo", usetz = TRUE)), format = "%Y-%m-%d %H:%M")

time.series.urayasu1 <- 0

for(i in 1:length(time.urayasu1) - 1) {
   time.series.urayasu1[i+1] <- difftime(time.urayasu1[i+1], time.urayasu1[1], units = c("mins"))
}

linreg.urayasu1.pre <- lm(urayasu1[ ,1] ~ time.series.urayasu1)
linreg.urayasu1 <- fitted.values(linreg.urayasu1.pre)

# Graph cpm

last1.pre <- max(c(time.tokyo1, time.tokyo2, time.ueda1a))
last1 <- as.POSIXct(format(last1.pre, format = "%Y-%m-%d %H:%M"))

first1.pre <- min(c(time.tokyo1, time.tokyo2, time.ueda1a))
first1 <- as.POSIXct(format(first1.pre, format = "%Y-%m-%d %H:%M"))

high1 <- max(c(tokyo1[ ,1], tokyo2[ ,1], ueda1a[ ,1]))

low1 <- min(c(tokyo1[ ,1], tokyo2[ ,1], ueda1a[ ,1]))

plot(y = tokyo1[ ,1], x = time.tokyo1, type = "b", xlim = c(first1, last1), ylim = c(low1, high1), xlab = "Japan Standard Time",
ylab = "cpm", main = "Radiation Level in cpm", pch = 4, cex = 0.5)
lines(y = tokyo2[ ,1], x = time.tokyo2, type = "b", pch = 4, cex = 0.5, col = 2)
lines(y = ueda1a[ ,1], x = time.ueda1a, type = "b", pch = 4, cex = 0.5, col = 3)
lines(y = linreg.tokyo1, x = time.tokyo1, type = "l", lty = 2)
lines(y = linreg.tokyo2, x = time.tokyo2, type = "l", lty = 2, col = 2)
lines(y = linreg.ueda1a, x = time.ueda1a, type = "l", lty = 2, col = 3)
legend("topleft", legend = c("tokyo1", "tokyo2", "ueda1a"), lty = 1, col = c(1, 2, 3), bty = "n")
grid(ny = NULL, nx = NA, col = "lightgray", lty = "dotted")

# Graph µSv/h

last2.pre <- max(c(time.moriya1, time.ueda1b, time.urayasu1, time.sakura1, time.tokyo3))
last2 <- as.POSIXct(format(last2.pre, format = "%Y-%m-%d %H:%M"))

first2.pre <- min(c(time.moriya1, time.ueda1b, time.urayasu1, time.sakura1, time.tokyo3))
first2 <- as.POSIXct(format(first2.pre, format = "%Y-%m-%d %H:%M"))

high2 <- max(c(moriya1[ ,1], ueda1b[ ,1], urayasu1[ ,1], sakura1[ ,1], tokyo3[ ,1]))

low2 <- min(c(moriya1[ ,1], ueda1b[ ,1], urayasu1[ ,1], sakura1[ ,1], tokyo3[ ,1]))

plot(y = moriya1[ ,1], x = time.moriya1, type = "b", xlab = "Japan Standard Time",
ylab = "µSv/h", main = "Radiation Level in µSv/h", pch = 4, cex = 0.5, xlim = c(first2, last2), ylim = c(low2, high2))
lines(y = ueda1b[ ,1], x = time.ueda1b, type = "b", pch = 4, cex = 0.5, col = 2)
lines(y = urayasu1[ ,1], x = time.urayasu1, type = "b", pch = 4, cex = 0.5, col = 3)
lines(y = sakura1[ ,1], x = time.sakura1, type = "b", pch = 4, cex = 0.5, col = 4)
lines(y = tokyo3[ ,1], x = time.tokyo3, type = "b", pch = 4, cex = 0.5, col = 5)
lines(y = linreg.moriya1, x = time.moriya1, type = "l", lty = 2)
lines(y = linreg.ueda1b, x = time.ueda1b, type = "l", lty = 2, col = 2)
lines(y = linreg.urayasu1, x = time.urayasu1, type = "l", lty = 2, col =3)
lines(y = linreg.sakura1, x = time.sakura1, type = "l", lty = 2, col = 4)
lines(y = linreg.tokyo3, x = time.tokyo3, type = "l", lty = 2, col = 5)
legend("topleft", legend = c("moriya1", "ueda1b", "urayasu1", "sakura1", "tokyo3"), lty = 1, col = c(1, 2, 3, 4, 5), bty = "n")
grid(ny = NULL, nx = NA, col = "lightgray", lty = "dotted")

Created by Pretty R at inside-R.org

Ansonsten: Willkommen auf der Rettungsdecke!

Jonas

P.S.:

Ein Auftaktartikel dieser Art auf einem Blog namens Rettungsdecke, mag doch entweder sehr krude erscheinen oder sehr existenziellen Humor ausstrahlen. Er erscheint auf diesem noch absolut unfertigen Blog, da ich selbst nach einer solchen Statistik gesucht, aber nichts gefunden habe und ich vermute, dass auch noch andere an diesen Zahlen interessiert sind.