comparison test/CodeGen/X86/lsr-loop-exit-cond.ll @ 95:afa8332a0e37 LLVM3.8

LLVM 3.8
author Kaito Tokumori <e105711@ie.u-ryukyu.ac.jp>
date Tue, 13 Oct 2015 17:48:58 +0900
parents 95c75e76d11b
children 1172e4bd9c6f
comparison
equal deleted inserted replaced
84:f3e34b893a5f 95:afa8332a0e37
15 @Te1 = external global [256 x i32] ; <[256 x i32]*> [#uses=4] 15 @Te1 = external global [256 x i32] ; <[256 x i32]*> [#uses=4]
16 @Te3 = external global [256 x i32] ; <[256 x i32]*> [#uses=2] 16 @Te3 = external global [256 x i32] ; <[256 x i32]*> [#uses=2]
17 17
18 define void @t(i8* nocapture %in, i8* nocapture %out, i32* nocapture %rk, i32 %r) nounwind { 18 define void @t(i8* nocapture %in, i8* nocapture %out, i32* nocapture %rk, i32 %r) nounwind {
19 entry: 19 entry:
20 %0 = load i32* %rk, align 4 ; <i32> [#uses=1] 20 %0 = load i32, i32* %rk, align 4 ; <i32> [#uses=1]
21 %1 = getelementptr i32* %rk, i64 1 ; <i32*> [#uses=1] 21 %1 = getelementptr i32, i32* %rk, i64 1 ; <i32*> [#uses=1]
22 %2 = load i32* %1, align 4 ; <i32> [#uses=1] 22 %2 = load i32, i32* %1, align 4 ; <i32> [#uses=1]
23 %tmp15 = add i32 %r, -1 ; <i32> [#uses=1] 23 %tmp15 = add i32 %r, -1 ; <i32> [#uses=1]
24 %tmp.16 = zext i32 %tmp15 to i64 ; <i64> [#uses=2] 24 %tmp.16 = zext i32 %tmp15 to i64 ; <i64> [#uses=2]
25 br label %bb 25 br label %bb
26 26
27 bb: ; preds = %bb1, %entry 27 bb: ; preds = %bb1, %entry
30 %s0.0 = phi i32 [ %0, %entry ], [ %43, %bb1 ] ; <i32> [#uses=2] 30 %s0.0 = phi i32 [ %0, %entry ], [ %43, %bb1 ] ; <i32> [#uses=2]
31 %tmp18 = shl i64 %indvar, 4 ; <i64> [#uses=4] 31 %tmp18 = shl i64 %indvar, 4 ; <i64> [#uses=4]
32 %rk26 = bitcast i32* %rk to i8* ; <i8*> [#uses=6] 32 %rk26 = bitcast i32* %rk to i8* ; <i8*> [#uses=6]
33 %3 = lshr i32 %s0.0, 24 ; <i32> [#uses=1] 33 %3 = lshr i32 %s0.0, 24 ; <i32> [#uses=1]
34 %4 = zext i32 %3 to i64 ; <i64> [#uses=1] 34 %4 = zext i32 %3 to i64 ; <i64> [#uses=1]
35 %5 = getelementptr [256 x i32]* @Te0, i64 0, i64 %4 ; <i32*> [#uses=1] 35 %5 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %4 ; <i32*> [#uses=1]
36 %6 = load i32* %5, align 4 ; <i32> [#uses=1] 36 %6 = load i32, i32* %5, align 4 ; <i32> [#uses=1]
37 %7 = lshr i32 %s1.0, 16 ; <i32> [#uses=1] 37 %7 = lshr i32 %s1.0, 16 ; <i32> [#uses=1]
38 %8 = and i32 %7, 255 ; <i32> [#uses=1] 38 %8 = and i32 %7, 255 ; <i32> [#uses=1]
39 %9 = zext i32 %8 to i64 ; <i64> [#uses=1] 39 %9 = zext i32 %8 to i64 ; <i64> [#uses=1]
40 %10 = getelementptr [256 x i32]* @Te1, i64 0, i64 %9 ; <i32*> [#uses=1] 40 %10 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %9 ; <i32*> [#uses=1]
41 %11 = load i32* %10, align 4 ; <i32> [#uses=1] 41 %11 = load i32, i32* %10, align 4 ; <i32> [#uses=1]
42 %ctg2.sum2728 = or i64 %tmp18, 8 ; <i64> [#uses=1] 42 %ctg2.sum2728 = or i64 %tmp18, 8 ; <i64> [#uses=1]
43 %12 = getelementptr i8* %rk26, i64 %ctg2.sum2728 ; <i8*> [#uses=1] 43 %12 = getelementptr i8, i8* %rk26, i64 %ctg2.sum2728 ; <i8*> [#uses=1]
44 %13 = bitcast i8* %12 to i32* ; <i32*> [#uses=1] 44 %13 = bitcast i8* %12 to i32* ; <i32*> [#uses=1]
45 %14 = load i32* %13, align 4 ; <i32> [#uses=1] 45 %14 = load i32, i32* %13, align 4 ; <i32> [#uses=1]
46 %15 = xor i32 %11, %6 ; <i32> [#uses=1] 46 %15 = xor i32 %11, %6 ; <i32> [#uses=1]
47 %16 = xor i32 %15, %14 ; <i32> [#uses=3] 47 %16 = xor i32 %15, %14 ; <i32> [#uses=3]
48 %17 = lshr i32 %s1.0, 24 ; <i32> [#uses=1] 48 %17 = lshr i32 %s1.0, 24 ; <i32> [#uses=1]
49 %18 = zext i32 %17 to i64 ; <i64> [#uses=1] 49 %18 = zext i32 %17 to i64 ; <i64> [#uses=1]
50 %19 = getelementptr [256 x i32]* @Te0, i64 0, i64 %18 ; <i32*> [#uses=1] 50 %19 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %18 ; <i32*> [#uses=1]
51 %20 = load i32* %19, align 4 ; <i32> [#uses=1] 51 %20 = load i32, i32* %19, align 4 ; <i32> [#uses=1]
52 %21 = and i32 %s0.0, 255 ; <i32> [#uses=1] 52 %21 = and i32 %s0.0, 255 ; <i32> [#uses=1]
53 %22 = zext i32 %21 to i64 ; <i64> [#uses=1] 53 %22 = zext i32 %21 to i64 ; <i64> [#uses=1]
54 %23 = getelementptr [256 x i32]* @Te3, i64 0, i64 %22 ; <i32*> [#uses=1] 54 %23 = getelementptr [256 x i32], [256 x i32]* @Te3, i64 0, i64 %22 ; <i32*> [#uses=1]
55 %24 = load i32* %23, align 4 ; <i32> [#uses=1] 55 %24 = load i32, i32* %23, align 4 ; <i32> [#uses=1]
56 %ctg2.sum2930 = or i64 %tmp18, 12 ; <i64> [#uses=1] 56 %ctg2.sum2930 = or i64 %tmp18, 12 ; <i64> [#uses=1]
57 %25 = getelementptr i8* %rk26, i64 %ctg2.sum2930 ; <i8*> [#uses=1] 57 %25 = getelementptr i8, i8* %rk26, i64 %ctg2.sum2930 ; <i8*> [#uses=1]
58 %26 = bitcast i8* %25 to i32* ; <i32*> [#uses=1] 58 %26 = bitcast i8* %25 to i32* ; <i32*> [#uses=1]
59 %27 = load i32* %26, align 4 ; <i32> [#uses=1] 59 %27 = load i32, i32* %26, align 4 ; <i32> [#uses=1]
60 %28 = xor i32 %24, %20 ; <i32> [#uses=1] 60 %28 = xor i32 %24, %20 ; <i32> [#uses=1]
61 %29 = xor i32 %28, %27 ; <i32> [#uses=4] 61 %29 = xor i32 %28, %27 ; <i32> [#uses=4]
62 %30 = lshr i32 %16, 24 ; <i32> [#uses=1] 62 %30 = lshr i32 %16, 24 ; <i32> [#uses=1]
63 %31 = zext i32 %30 to i64 ; <i64> [#uses=1] 63 %31 = zext i32 %30 to i64 ; <i64> [#uses=1]
64 %32 = getelementptr [256 x i32]* @Te0, i64 0, i64 %31 ; <i32*> [#uses=1] 64 %32 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %31 ; <i32*> [#uses=1]
65 %33 = load i32* %32, align 4 ; <i32> [#uses=2] 65 %33 = load i32, i32* %32, align 4 ; <i32> [#uses=2]
66 %exitcond = icmp eq i64 %indvar, %tmp.16 ; <i1> [#uses=1] 66 %exitcond = icmp eq i64 %indvar, %tmp.16 ; <i1> [#uses=1]
67 br i1 %exitcond, label %bb2, label %bb1 67 br i1 %exitcond, label %bb2, label %bb1
68 68
69 bb1: ; preds = %bb 69 bb1: ; preds = %bb
70 %ctg2.sum31 = add i64 %tmp18, 16 ; <i64> [#uses=1] 70 %ctg2.sum31 = add i64 %tmp18, 16 ; <i64> [#uses=1]
71 %34 = getelementptr i8* %rk26, i64 %ctg2.sum31 ; <i8*> [#uses=1] 71 %34 = getelementptr i8, i8* %rk26, i64 %ctg2.sum31 ; <i8*> [#uses=1]
72 %35 = bitcast i8* %34 to i32* ; <i32*> [#uses=1] 72 %35 = bitcast i8* %34 to i32* ; <i32*> [#uses=1]
73 %36 = lshr i32 %29, 16 ; <i32> [#uses=1] 73 %36 = lshr i32 %29, 16 ; <i32> [#uses=1]
74 %37 = and i32 %36, 255 ; <i32> [#uses=1] 74 %37 = and i32 %36, 255 ; <i32> [#uses=1]
75 %38 = zext i32 %37 to i64 ; <i64> [#uses=1] 75 %38 = zext i32 %37 to i64 ; <i64> [#uses=1]
76 %39 = getelementptr [256 x i32]* @Te1, i64 0, i64 %38 ; <i32*> [#uses=1] 76 %39 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %38 ; <i32*> [#uses=1]
77 %40 = load i32* %39, align 4 ; <i32> [#uses=1] 77 %40 = load i32, i32* %39, align 4 ; <i32> [#uses=1]
78 %41 = load i32* %35, align 4 ; <i32> [#uses=1] 78 %41 = load i32, i32* %35, align 4 ; <i32> [#uses=1]
79 %42 = xor i32 %40, %33 ; <i32> [#uses=1] 79 %42 = xor i32 %40, %33 ; <i32> [#uses=1]
80 %43 = xor i32 %42, %41 ; <i32> [#uses=1] 80 %43 = xor i32 %42, %41 ; <i32> [#uses=1]
81 %44 = lshr i32 %29, 24 ; <i32> [#uses=1] 81 %44 = lshr i32 %29, 24 ; <i32> [#uses=1]
82 %45 = zext i32 %44 to i64 ; <i64> [#uses=1] 82 %45 = zext i32 %44 to i64 ; <i64> [#uses=1]
83 %46 = getelementptr [256 x i32]* @Te0, i64 0, i64 %45 ; <i32*> [#uses=1] 83 %46 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %45 ; <i32*> [#uses=1]
84 %47 = load i32* %46, align 4 ; <i32> [#uses=1] 84 %47 = load i32, i32* %46, align 4 ; <i32> [#uses=1]
85 %48 = and i32 %16, 255 ; <i32> [#uses=1] 85 %48 = and i32 %16, 255 ; <i32> [#uses=1]
86 %49 = zext i32 %48 to i64 ; <i64> [#uses=1] 86 %49 = zext i32 %48 to i64 ; <i64> [#uses=1]
87 %50 = getelementptr [256 x i32]* @Te3, i64 0, i64 %49 ; <i32*> [#uses=1] 87 %50 = getelementptr [256 x i32], [256 x i32]* @Te3, i64 0, i64 %49 ; <i32*> [#uses=1]
88 %51 = load i32* %50, align 4 ; <i32> [#uses=1] 88 %51 = load i32, i32* %50, align 4 ; <i32> [#uses=1]
89 %ctg2.sum32 = add i64 %tmp18, 20 ; <i64> [#uses=1] 89 %ctg2.sum32 = add i64 %tmp18, 20 ; <i64> [#uses=1]
90 %52 = getelementptr i8* %rk26, i64 %ctg2.sum32 ; <i8*> [#uses=1] 90 %52 = getelementptr i8, i8* %rk26, i64 %ctg2.sum32 ; <i8*> [#uses=1]
91 %53 = bitcast i8* %52 to i32* ; <i32*> [#uses=1] 91 %53 = bitcast i8* %52 to i32* ; <i32*> [#uses=1]
92 %54 = load i32* %53, align 4 ; <i32> [#uses=1] 92 %54 = load i32, i32* %53, align 4 ; <i32> [#uses=1]
93 %55 = xor i32 %51, %47 ; <i32> [#uses=1] 93 %55 = xor i32 %51, %47 ; <i32> [#uses=1]
94 %56 = xor i32 %55, %54 ; <i32> [#uses=1] 94 %56 = xor i32 %55, %54 ; <i32> [#uses=1]
95 %indvar.next = add i64 %indvar, 1 ; <i64> [#uses=1] 95 %indvar.next = add i64 %indvar, 1 ; <i64> [#uses=1]
96 br label %bb 96 br label %bb
97 97
98 bb2: ; preds = %bb 98 bb2: ; preds = %bb
99 %tmp10 = shl i64 %tmp.16, 4 ; <i64> [#uses=2] 99 %tmp10 = shl i64 %tmp.16, 4 ; <i64> [#uses=2]
100 %ctg2.sum = add i64 %tmp10, 16 ; <i64> [#uses=1] 100 %ctg2.sum = add i64 %tmp10, 16 ; <i64> [#uses=1]
101 %tmp1213 = getelementptr i8* %rk26, i64 %ctg2.sum ; <i8*> [#uses=1] 101 %tmp1213 = getelementptr i8, i8* %rk26, i64 %ctg2.sum ; <i8*> [#uses=1]
102 %57 = bitcast i8* %tmp1213 to i32* ; <i32*> [#uses=1] 102 %57 = bitcast i8* %tmp1213 to i32* ; <i32*> [#uses=1]
103 %58 = and i32 %33, -16777216 ; <i32> [#uses=1] 103 %58 = and i32 %33, -16777216 ; <i32> [#uses=1]
104 %59 = lshr i32 %29, 16 ; <i32> [#uses=1] 104 %59 = lshr i32 %29, 16 ; <i32> [#uses=1]
105 %60 = and i32 %59, 255 ; <i32> [#uses=1] 105 %60 = and i32 %59, 255 ; <i32> [#uses=1]
106 %61 = zext i32 %60 to i64 ; <i64> [#uses=1] 106 %61 = zext i32 %60 to i64 ; <i64> [#uses=1]
107 %62 = getelementptr [256 x i32]* @Te1, i64 0, i64 %61 ; <i32*> [#uses=1] 107 %62 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %61 ; <i32*> [#uses=1]
108 %63 = load i32* %62, align 4 ; <i32> [#uses=1] 108 %63 = load i32, i32* %62, align 4 ; <i32> [#uses=1]
109 %64 = and i32 %63, 16711680 ; <i32> [#uses=1] 109 %64 = and i32 %63, 16711680 ; <i32> [#uses=1]
110 %65 = or i32 %64, %58 ; <i32> [#uses=1] 110 %65 = or i32 %64, %58 ; <i32> [#uses=1]
111 %66 = load i32* %57, align 4 ; <i32> [#uses=1] 111 %66 = load i32, i32* %57, align 4 ; <i32> [#uses=1]
112 %67 = xor i32 %65, %66 ; <i32> [#uses=2] 112 %67 = xor i32 %65, %66 ; <i32> [#uses=2]
113 %68 = lshr i32 %29, 8 ; <i32> [#uses=1] 113 %68 = lshr i32 %29, 8 ; <i32> [#uses=1]
114 %69 = zext i32 %68 to i64 ; <i64> [#uses=1] 114 %69 = zext i32 %68 to i64 ; <i64> [#uses=1]
115 %70 = getelementptr [256 x i32]* @Te0, i64 0, i64 %69 ; <i32*> [#uses=1] 115 %70 = getelementptr [256 x i32], [256 x i32]* @Te0, i64 0, i64 %69 ; <i32*> [#uses=1]
116 %71 = load i32* %70, align 4 ; <i32> [#uses=1] 116 %71 = load i32, i32* %70, align 4 ; <i32> [#uses=1]
117 %72 = and i32 %71, -16777216 ; <i32> [#uses=1] 117 %72 = and i32 %71, -16777216 ; <i32> [#uses=1]
118 %73 = and i32 %16, 255 ; <i32> [#uses=1] 118 %73 = and i32 %16, 255 ; <i32> [#uses=1]
119 %74 = zext i32 %73 to i64 ; <i64> [#uses=1] 119 %74 = zext i32 %73 to i64 ; <i64> [#uses=1]
120 %75 = getelementptr [256 x i32]* @Te1, i64 0, i64 %74 ; <i32*> [#uses=1] 120 %75 = getelementptr [256 x i32], [256 x i32]* @Te1, i64 0, i64 %74 ; <i32*> [#uses=1]
121 %76 = load i32* %75, align 4 ; <i32> [#uses=1] 121 %76 = load i32, i32* %75, align 4 ; <i32> [#uses=1]
122 %77 = and i32 %76, 16711680 ; <i32> [#uses=1] 122 %77 = and i32 %76, 16711680 ; <i32> [#uses=1]
123 %78 = or i32 %77, %72 ; <i32> [#uses=1] 123 %78 = or i32 %77, %72 ; <i32> [#uses=1]
124 %ctg2.sum25 = add i64 %tmp10, 20 ; <i64> [#uses=1] 124 %ctg2.sum25 = add i64 %tmp10, 20 ; <i64> [#uses=1]
125 %79 = getelementptr i8* %rk26, i64 %ctg2.sum25 ; <i8*> [#uses=1] 125 %79 = getelementptr i8, i8* %rk26, i64 %ctg2.sum25 ; <i8*> [#uses=1]
126 %80 = bitcast i8* %79 to i32* ; <i32*> [#uses=1] 126 %80 = bitcast i8* %79 to i32* ; <i32*> [#uses=1]
127 %81 = load i32* %80, align 4 ; <i32> [#uses=1] 127 %81 = load i32, i32* %80, align 4 ; <i32> [#uses=1]
128 %82 = xor i32 %78, %81 ; <i32> [#uses=2] 128 %82 = xor i32 %78, %81 ; <i32> [#uses=2]
129 %83 = lshr i32 %67, 24 ; <i32> [#uses=1] 129 %83 = lshr i32 %67, 24 ; <i32> [#uses=1]
130 %84 = trunc i32 %83 to i8 ; <i8> [#uses=1] 130 %84 = trunc i32 %83 to i8 ; <i8> [#uses=1]
131 store i8 %84, i8* %out, align 1 131 store i8 %84, i8* %out, align 1
132 %85 = lshr i32 %67, 16 ; <i32> [#uses=1] 132 %85 = lshr i32 %67, 16 ; <i32> [#uses=1]
133 %86 = trunc i32 %85 to i8 ; <i8> [#uses=1] 133 %86 = trunc i32 %85 to i8 ; <i8> [#uses=1]
134 %87 = getelementptr i8* %out, i64 1 ; <i8*> [#uses=1] 134 %87 = getelementptr i8, i8* %out, i64 1 ; <i8*> [#uses=1]
135 store i8 %86, i8* %87, align 1 135 store i8 %86, i8* %87, align 1
136 %88 = getelementptr i8* %out, i64 4 ; <i8*> [#uses=1] 136 %88 = getelementptr i8, i8* %out, i64 4 ; <i8*> [#uses=1]
137 %89 = lshr i32 %82, 24 ; <i32> [#uses=1] 137 %89 = lshr i32 %82, 24 ; <i32> [#uses=1]
138 %90 = trunc i32 %89 to i8 ; <i8> [#uses=1] 138 %90 = trunc i32 %89 to i8 ; <i8> [#uses=1]
139 store i8 %90, i8* %88, align 1 139 store i8 %90, i8* %88, align 1
140 %91 = lshr i32 %82, 16 ; <i32> [#uses=1] 140 %91 = lshr i32 %82, 16 ; <i32> [#uses=1]
141 %92 = trunc i32 %91 to i8 ; <i8> [#uses=1] 141 %92 = trunc i32 %91 to i8 ; <i8> [#uses=1]
142 %93 = getelementptr i8* %out, i64 5 ; <i8*> [#uses=1] 142 %93 = getelementptr i8, i8* %out, i64 5 ; <i8*> [#uses=1]
143 store i8 %92, i8* %93, align 1 143 store i8 %92, i8* %93, align 1
144 ret void 144 ret void
145 } 145 }
146 146
147 ; Check that DAGCombiner doesn't mess up the IV update when the exiting value 147 ; Check that DAGCombiner doesn't mess up the IV update when the exiting value
173 173
174 for.body: ; preds = %for.body.lr.ph, %for.body 174 for.body: ; preds = %for.body.lr.ph, %for.body
175 %indvars.iv = phi i64 [ %0, %for.body.lr.ph ], [ %indvars.iv.next, %for.body ] 175 %indvars.iv = phi i64 [ %0, %for.body.lr.ph ], [ %indvars.iv.next, %for.body ]
176 %bi.06 = phi i32 [ 0, %for.body.lr.ph ], [ %i.addr.0.bi.0, %for.body ] 176 %bi.06 = phi i32 [ 0, %for.body.lr.ph ], [ %i.addr.0.bi.0, %for.body ]
177 %b.05 = phi i32 [ 0, %for.body.lr.ph ], [ %.b.0, %for.body ] 177 %b.05 = phi i32 [ 0, %for.body.lr.ph ], [ %.b.0, %for.body ]
178 %arrayidx = getelementptr inbounds i32* %a, i64 %indvars.iv 178 %arrayidx = getelementptr inbounds i32, i32* %a, i64 %indvars.iv
179 %1 = load i32* %arrayidx, align 4 179 %1 = load i32, i32* %arrayidx, align 4
180 %cmp1 = icmp ugt i32 %1, %b.05 180 %cmp1 = icmp ugt i32 %1, %b.05
181 %.b.0 = select i1 %cmp1, i32 %1, i32 %b.05 181 %.b.0 = select i1 %cmp1, i32 %1, i32 %b.05
182 %2 = trunc i64 %indvars.iv to i32 182 %2 = trunc i64 %indvars.iv to i32
183 %i.addr.0.bi.0 = select i1 %cmp1, i32 %2, i32 %bi.06 183 %i.addr.0.bi.0 = select i1 %cmp1, i32 %2, i32 %bi.06
184 %indvars.iv.next = add i64 %indvars.iv, 1 184 %indvars.iv.next = add i64 %indvars.iv, 1