<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Sun, May 25, 2014 at 5:57 PM, Christina Murmann <span dir="ltr"><<a href="mailto:christinamurmann@web.de" target="_blank">christinamurmann@web.de</a>></span> wrote:<br>

<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
  
    
  
  <div text="#000000" bgcolor="#FFFFFF"><br><p class="MsoNormal"><span><span>
        </span><br>
        <span>Matthew Gerber wrote: <br>
          "</span>I've
        provided victim-based examples" <br>
        <span>Even if we do not take a
          potential criminal point of view but a victim centered
          one: It is still questionable if the potential (!) victim's
          data should be used
          in such a way. After all, they did not ask for their
          whereabouts and daily
          routine activities to be monitored and used. And they will not
          be made
          aware of it either, I assume. <br></span></span></p></div></blockquote><div><br></div><div>You have assumed incorrectly. All of our data are collected from Twitter's public API. Specifically, we use the streaming API, which provides access to Tweets that have been tagged with GPS coordinates. Users must opt in to the use of GPS tagging. So, yes, these users have _specifically_ asked for their whereabouts to be made public.<br>

<br></div><div>To the point of whether we should be using the data as we are, I can only say that every single Twitter user in the history of Twitter has agreed to Twitter's Terms of Use, which permit us to collect and use their data as described. If people don't want us to use their Twitter data in our crime research, they should not use Twitter. Nobody is forcing them to do so.<br>

</div><div> <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div text="#000000" bgcolor="#FFFFFF"><p class="MsoNormal"><span><span>
        </span></span></p>
    <p class="MsoNormal"><font face="Arial">Also, the approach cannot be
        purely victim-based for obvious reasons: in two cities there
        might be blocks with similarly high proportions of 9 to 5
        workers and therefore - according to this approach - an
        alledgedly high risk of robbery. Still, past criminality rates
        and mean wealth might differ greatly for these cities, probably
        resulting in a quite different risk of robbery for the
        respective city. A purely victim based approach doesn't accout
        for that.</font><br></p></div></blockquote><div><br></div><div>Certainly, it does not. That's why we do, in fact, look at these other factors when we build our <a href="http://ptl.sys.virginia.edu/ptl/node/148">crime analysis models</a>. I was just trying to balance out the discussion's exclusive focus on criminals.<br>

 <br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex"><div text="#000000" bgcolor="#FFFFFF"><p class="MsoNormal">
    </p>
    <span><span> </span><u></u><u></u></span><span><span>Matthew
        Gerber wrote: </span></span><br>
    "Now of course, all of this could be used for
    malicious purposes, just like every other technology in the history
    of
    Man."<br>
    <p class="MsoNormal"><span>Matthew Gerber seems to want to say 'Because
        other technologies have had this flaw, I
        should not need to be troubled by this fact'<br></span></p></div></blockquote><div><br></div><div>Not quite. I'm just saying there's nothing new here with regard to human rights. People need to be aware of the content they post publicly and the rights that other people (e.g., myself) have to collect and use such information. This is an old, but worthwhile, discussion.<br>

</div><br></div><div class="gmail_quote">Sincerely,<br><br>Matthew Gerber<br></div></div></div>