<div dir="ltr"><div class="gmail_extra"><br><div class="gmail_quote">On Fri, Jan 2, 2015 at 1:47 AM, carlo von lynX <span dir="ltr"><<a href="mailto:lynX@i.know.you.are.psyced.org" target="_blank">lynX@i.know.you.are.psyced.org</a>></span> wrote:<blockquote class="gmail_quote" style="margin:0px 0px 0px 0.8ex;border-left-width:1px;border-left-color:rgb(204,204,204);border-left-style:solid;padding-left:1ex"><span class="">
> In any case, I would advocate that any system needs to be flexible for<br>
> different users to choose multiple options based on their security<br>
> preferences. I suspect most users will want a simple baseline UI along the<br>
> lines of iMessage (or almost any other chat app) today, which is that you<br>
> can enroll any new device instantaneously with a username/password only and<br>
> no pairing protocol. I think if you want to design a mass-market system,<br>
> anything involving an explicit device pairing-protocol needs to be an<br>
> opt-in feature.<br>
<br>
</span>Consider also the possibility that market logic may not work out as<br>
it never has in the past two decades since we "won" the crypto wars.<br>
If we let people always take the decision and opt for easy solutions<br>
humanity may never experience a secure Internet as they will always<br>
pick a compromised solution and mass surveillance will go on, to<br>
the detriment of democracy. Consider the possibility that the only<br>
way to create an Internet that respects the principles of democratic<br>
consititutions could be to put certain basic requirements of end-to-end<br>
security into law. <a href="http://youbroketheinternet.org/legislation/" target="_blank">http://youbroketheinternet.ortellg/legislation/</a> is<br>
about that, a law proposal for obligatory encryption.<br></blockquote><div><br></div><div>I agree that a market failure often exists in which users genuinely want a higher level of security, but are unable to achieve it because they can't tell the difference between secure and insecure products (or secure and insecure behaviors) and so they default to insecure products and behaviors because they are usually easier. Essentially, this is a lemons market (although not technically, since there is usually not a price difference but a convenience one). This was proposed for information security at least 13 years ago in the original papers on security economics [1] and has been widely discussed since then.</div><div><br></div><div>I think this is a helpful framing, and there are many actions to try to reduce information asymmetry. For example, things like the EFF Scorecard attempt to inform more users that certain products aren't secure, as well as to try to convince large Internet companies not to tarnish their brand with weak products. Libertarian/soft paternalism [2] can also be helpful, in which users are nudged to better decisions through secure defaults.</div><div><br></div><div>However, I think it's also possible (and indeed common) to make a design error by assuming all users have the same values as we do, or would "if only they knew" and therefore we should try to force them into a high level of security.</div><div><br></div><div>Personally, I think many users' desire for end-to-end security ends well short of printing backup codes or running a pairing protocol that prevents them from instantly using a new device. If this is required to use multiple devices, I'm worried that the result will be a large number of users signing up for some new cloud service which manages a single private key for them and lets them fetch their messages from any device (using passwords and HTTPS), at which point end-to-end security is gone.</div><div><br></div><div>[1] <a href="https://www.acsac.org/2001/papers/110.pdf">https://www.acsac.org/2001/papers/110.pdf</a><br></div><div>[2] <a href="https://en.wikipedia.org/wiki/Soft_paternalism">https://en.wikipedia.org/wiki/Soft_paternalism</a></div></div></div></div>