<div dir="ltr"><div><div><div><div>Hi, and thanks for your answer!<br><br></div>Yes, we can certainly use that approach instead.  In some of our testing we use L2TP to create tunnels as you suggest, and then run BIRD through those tunnels.  This approach doesn't require any BIRD modification.<br><br></div>However, the big advantage of the IP-in-IP approach is that it doesn't require us to allocate (and manage) an extra IP address on every compute host (or to do the L2TP tunnel setup, of course).  That makes many deployments a lot simpler - and so possibly justifies the kind of BIRD enhancement that I've described?<br><br></div>Regards,<br></div>    Neil<br><br></div><br><div class="gmail_quote"><div dir="ltr">On Tue, Sep 27, 2016 at 4:51 PM Baptiste Jonglez <<a href="mailto:baptiste@bitsofnetworks.org">baptiste@bitsofnetworks.org</a>> wrote:<br></div><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">Hi,<br>
<br>
On Tue, Sep 27, 2016 at 03:09:52PM +0000, Neil Jerram wrote:<br>
> Attached are 3 patches that my team has been using for routing through<br>
> IP-in-IP tunnels, rebased on 1.6.1.  I'd like to explain why we find them<br>
> useful, and start a conversation about whether they or something like them<br>
> could be upstreamed (or perhaps if there's some better way of achieving our<br>
> aims).<br>
><br>
> Calico [1] uses BIRD for BGP routing between the hosts in various cloud<br>
> orchestration systems (Kubernetes, OpenStack etc.), to distribute routes to<br>
> the pods/VMs/containers in those systems, each of which has its own IP.  If<br>
> all the hosts are directly connected to each other, this is<br>
> straightforward, but sometimes they are not.  For example GCE instances are<br>
> not directly connected to each other: there is at least one router between<br>
> them, that knows about routing GCE addresses, and to/from the Internet, and<br>
> we cannot peer with it or otherwise tell it how to route pod/VM/container<br>
> IPs.  So if we use GCE to create e.g. OpenStack compute hosts, with Calico<br>
> networking, we need to do something extra to allow VM-addressed data to<br>
> pass between the compute hosts.<br>
><br>
> One of our solutions is to use IP-in-IP; it works as shown by this diagram:<br>
><br>
>        10.65.0.3 via 10.240.0.5 dev tunl0 onlink<br>
>        default via 10.240.0.1<br>
>                |<br>
>              +-|----------+                             +------------+<br>
>              | o          |                             |            |<br>
>              |   Host A   |         +--------+          |   Host B   |<br>
>              |            |---------| Router |----------|            |<br>
>              | 10.240.0.4 |         +--------+          | 10.240.0.5 |<br>
>              |            |---.                         |            |<br>
>              +------------+    |                        +------------+<br>
>                ^       ^   +---v---+                                |<br>
>  src 10.65.0.2 |       |   | tunl0 |                                |<br>
>  dst 10.65.0.3 |       |   +-------+                                |<br>
>                |        \      |                                    v<br>
>          +-----------+   '----'                               +-----------+<br>
>          |   Pod A   |      src 10.240.0.4                    |   Pod B   |<br>
>          | 10.65.0.2 |      dst 10.240.0.5                    | 10.65.0.3 |<br>
>          +-----------+          ------                        +-----------+<br>
>                              src 10.65.0.2<br>
>                              dst 10.65.0.3<br>
<br>
Can't you just use a tunnel between Host A and Host B and run BGP on top<br>
of this tunnel?  It would seem to be cleaner than hacking multi-hop BGP to<br>
obtain appriopriate next-hop values, unless I am missing something.<br>
<br>
It would look something like this:<br>
<br>
             +-|----------+                             +------------+<br>
             | o Host A   |                             |   Host B   |<br>
             |            |         +--------+          |            |<br>
             |  10.240.0.4|---------| Router |----------|10.240.0.5  |<br>
             |            |         +--------+          |            |<br>
             |   10.65.0.4|--.  +-------+   +-------+ .->10.65.0.5   |<br>
             +------------+   `>| tunlA |-->| tunlB |-  +------------+<br>
                                +-------+   +-------+<br>
<br>
<br>
The BGP session would be established between 10.65.0.4 (IP of host A on<br>
tunlA) and 10.65.0.5 (IP of host B on tunlB), so that the routes learnt<br>
via BGP would be immediately correct.<br>
<br>
Basically, it's a simple overlay network.<br>
<br>
> The diagram shows Pod A sending a packet to Pod B, using IP addresses that<br>
> are unknown to the 'Router' between the two hosts.  Host A has an IP-in-IP<br>
> device, tunl0, and a route that says to use that device for data to Pod B's<br>
> address (10.65.0.3).  When the packet has passed through that device, it<br>
> has a new outer IP header, with src 10.240.0.4 and dst 10.240.0.5, and is<br>
> routed again according to the routing table - so now it can successfully<br>
> reach Host B.<br>
><br>
> So how is BIRD involved?  We statically program the local Pod route on each<br>
> host:<br>
><br>
> On Host A: 10.65.0.2 dev <interface to Pod A><br>
> On Host B: 10.65.0.3 dev <interface to Pod B><br>
><br>
> then run a BIRD BGP session between Host A and Host B to propagate those<br>
> routes to the other host - which would normally give us:<br>
><br>
> On Host A: 10.65.0.3 via 10.240.0.5<br>
> On Host B: 10.65.0.2 via 10.240.0.4<br>
><br>
> But we don't want those normal routes, because then the data would get lost<br>
> at 'Router'.  So we enhance and configure BIRD as follows.<br>
><br>
> - In the export filter for protocol kernel, for the relevant routes, we set<br>
> an attribute 'krt_tunnel = tunl0'.<br>
><br>
> - We modify BIRD, as in the attached patches, to understand that that means<br>
> that those routes should have 'dev tunl0'.<br>
><br>
> Then instead, we get:<br>
><br>
> On Host A: 10.65.0.3 via 10.240.0.5 dev tunl0 onlink<br>
> On Host B: 10.65.0.2 via 10.240.0.4 dev tunl0 onlink<br>
><br>
> which allows successful routing of data between the Pods.<br>
><br>
><br>
> Thanks for reading this far!  I now have three questions:<br>
><br>
> 1. Does the routing approach above make sense?  (Or is there some better or<br>
> simpler or already supported way that we could achieve the same thing?)<br>
><br>
> 2. If (1), would the BIRD team accept patches broadly on the lines of those<br>
> that are attached?<br>
><br>
> 3. If (2), please let me know if the attached patches are already<br>
> acceptable, or otherwise what further work is needed for them.<br>
><br>
> Many thanks,<br>
>     Neil<br>
</blockquote></div>