diff test/CodeGen/AMDGPU/si-sgpr-spill.ll @ 100:7d135dc70f03 LLVM 3.9

LLVM 3.9
author Miyagi Mitsuki <e135756@ie.u-ryukyu.ac.jp>
date Tue, 26 Jan 2016 22:53:40 +0900
parents afa8332a0e37
children 1172e4bd9c6f
line wrap: on
line diff
--- a/test/CodeGen/AMDGPU/si-sgpr-spill.ll	Tue Oct 13 17:49:56 2015 +0900
+++ b/test/CodeGen/AMDGPU/si-sgpr-spill.ll	Tue Jan 26 22:53:40 2016 +0900
@@ -4,1565 +4,1616 @@
 ; These tests check that the compiler won't crash when it needs to spill
 ; SGPRs.
 
+
+@ddxy_lds = external addrspace(3) global [64 x i32]
+
 ; CHECK-LABEL: {{^}}main:
 ; CHECK: s_wqm
+
+; Make sure not emitting unused scratch resource descriptor setup
+; CHECK-NOT: s_mov_b32
+; CHECK-NOT: s_mov_b32
+; CHECK-NOT: s_mov_b32
+; CHECK-NOT: s_mov_b32
+
+; CHECK: s_mov_b32 m0
+
+
 ; Writing to M0 from an SMRD instruction will hang the GPU.
 ; CHECK-NOT: s_buffer_load_dword m0
 ; CHECK: s_endpgm
-@ddxy_lds = external addrspace(3) global [64 x i32]
-
-define void @main([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
+define void @main([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <8 x i32>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
 main_body:
-  %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0
-  %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !0
-  %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 96)
-  %24 = call float @llvm.SI.load.const(<16 x i8> %22, i32 100)
-  %25 = call float @llvm.SI.load.const(<16 x i8> %22, i32 104)
-  %26 = call float @llvm.SI.load.const(<16 x i8> %22, i32 112)
-  %27 = call float @llvm.SI.load.const(<16 x i8> %22, i32 116)
-  %28 = call float @llvm.SI.load.const(<16 x i8> %22, i32 120)
-  %29 = call float @llvm.SI.load.const(<16 x i8> %22, i32 128)
-  %30 = call float @llvm.SI.load.const(<16 x i8> %22, i32 132)
-  %31 = call float @llvm.SI.load.const(<16 x i8> %22, i32 140)
-  %32 = call float @llvm.SI.load.const(<16 x i8> %22, i32 144)
-  %33 = call float @llvm.SI.load.const(<16 x i8> %22, i32 160)
-  %34 = call float @llvm.SI.load.const(<16 x i8> %22, i32 176)
-  %35 = call float @llvm.SI.load.const(<16 x i8> %22, i32 180)
-  %36 = call float @llvm.SI.load.const(<16 x i8> %22, i32 184)
-  %37 = call float @llvm.SI.load.const(<16 x i8> %22, i32 192)
-  %38 = call float @llvm.SI.load.const(<16 x i8> %22, i32 196)
-  %39 = call float @llvm.SI.load.const(<16 x i8> %22, i32 200)
-  %40 = call float @llvm.SI.load.const(<16 x i8> %22, i32 208)
-  %41 = call float @llvm.SI.load.const(<16 x i8> %22, i32 212)
-  %42 = call float @llvm.SI.load.const(<16 x i8> %22, i32 216)
-  %43 = call float @llvm.SI.load.const(<16 x i8> %22, i32 224)
-  %44 = call float @llvm.SI.load.const(<16 x i8> %22, i32 240)
-  %45 = call float @llvm.SI.load.const(<16 x i8> %22, i32 244)
-  %46 = call float @llvm.SI.load.const(<16 x i8> %22, i32 248)
-  %47 = call float @llvm.SI.load.const(<16 x i8> %22, i32 256)
-  %48 = call float @llvm.SI.load.const(<16 x i8> %22, i32 272)
-  %49 = call float @llvm.SI.load.const(<16 x i8> %22, i32 276)
-  %50 = call float @llvm.SI.load.const(<16 x i8> %22, i32 280)
-  %51 = call float @llvm.SI.load.const(<16 x i8> %22, i32 288)
-  %52 = call float @llvm.SI.load.const(<16 x i8> %22, i32 292)
-  %53 = call float @llvm.SI.load.const(<16 x i8> %22, i32 296)
-  %54 = call float @llvm.SI.load.const(<16 x i8> %22, i32 304)
-  %55 = call float @llvm.SI.load.const(<16 x i8> %22, i32 308)
-  %56 = call float @llvm.SI.load.const(<16 x i8> %22, i32 312)
-  %57 = call float @llvm.SI.load.const(<16 x i8> %22, i32 368)
-  %58 = call float @llvm.SI.load.const(<16 x i8> %22, i32 372)
-  %59 = call float @llvm.SI.load.const(<16 x i8> %22, i32 376)
-  %60 = call float @llvm.SI.load.const(<16 x i8> %22, i32 384)
-  %61 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0
-  %62 = load <32 x i8>, <32 x i8> addrspace(2)* %61, !tbaa !0
-  %63 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0
-  %64 = load <16 x i8>, <16 x i8> addrspace(2)* %63, !tbaa !0
-  %65 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 1
-  %66 = load <32 x i8>, <32 x i8> addrspace(2)* %65, !tbaa !0
-  %67 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 1
-  %68 = load <16 x i8>, <16 x i8> addrspace(2)* %67, !tbaa !0
-  %69 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 2
-  %70 = load <32 x i8>, <32 x i8> addrspace(2)* %69, !tbaa !0
-  %71 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 2
-  %72 = load <16 x i8>, <16 x i8> addrspace(2)* %71, !tbaa !0
-  %73 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 3
-  %74 = load <32 x i8>, <32 x i8> addrspace(2)* %73, !tbaa !0
-  %75 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 3
-  %76 = load <16 x i8>, <16 x i8> addrspace(2)* %75, !tbaa !0
-  %77 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 4
-  %78 = load <32 x i8>, <32 x i8> addrspace(2)* %77, !tbaa !0
-  %79 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 4
-  %80 = load <16 x i8>, <16 x i8> addrspace(2)* %79, !tbaa !0
-  %81 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 5
-  %82 = load <32 x i8>, <32 x i8> addrspace(2)* %81, !tbaa !0
-  %83 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 5
-  %84 = load <16 x i8>, <16 x i8> addrspace(2)* %83, !tbaa !0
-  %85 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 6
-  %86 = load <32 x i8>, <32 x i8> addrspace(2)* %85, !tbaa !0
-  %87 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 6
-  %88 = load <16 x i8>, <16 x i8> addrspace(2)* %87, !tbaa !0
-  %89 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 7
-  %90 = load <32 x i8>, <32 x i8> addrspace(2)* %89, !tbaa !0
-  %91 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 7
-  %92 = load <16 x i8>, <16 x i8> addrspace(2)* %91, !tbaa !0
-  %93 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %4, <2 x i32> %6)
-  %94 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %4, <2 x i32> %6)
-  %95 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %4, <2 x i32> %6)
-  %96 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %4, <2 x i32> %6)
-  %97 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %4, <2 x i32> %6)
-  %98 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %4, <2 x i32> %6)
-  %99 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %4, <2 x i32> %6)
-  %100 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %4, <2 x i32> %6)
-  %101 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %4, <2 x i32> %6)
-  %102 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %4, <2 x i32> %6)
-  %103 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %4, <2 x i32> %6)
-  %104 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %4, <2 x i32> %6)
-  %105 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %4, <2 x i32> %6)
-  %106 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %4, <2 x i32> %6)
-  %107 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %4, <2 x i32> %6)
-  %108 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %4, <2 x i32> %6)
-  %109 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %4, <2 x i32> %6)
-  %110 = call i32 @llvm.SI.tid()
-  %111 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %110
-  %112 = bitcast float %93 to i32
-  store i32 %112, i32 addrspace(3)* %111
-  %113 = bitcast float %94 to i32
-  store i32 %113, i32 addrspace(3)* %111
-  %114 = call i32 @llvm.SI.tid()
-  %115 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %114
-  %116 = and i32 %114, -4
-  %117 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %116
-  %118 = add i32 %116, 1
-  %119 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %118
-  %120 = bitcast float %93 to i32
-  store i32 %120, i32 addrspace(3)* %115
-  %121 = load i32, i32 addrspace(3)* %117
-  %122 = bitcast i32 %121 to float
-  %123 = load i32, i32 addrspace(3)* %119
-  %124 = bitcast i32 %123 to float
-  %125 = fsub float %124, %122
-  %126 = bitcast float %94 to i32
-  store i32 %126, i32 addrspace(3)* %115
-  %127 = load i32, i32 addrspace(3)* %117
-  %128 = bitcast i32 %127 to float
-  %129 = load i32, i32 addrspace(3)* %119
-  %130 = bitcast i32 %129 to float
-  %131 = fsub float %130, %128
-  %132 = insertelement <4 x float> undef, float %125, i32 0
-  %133 = insertelement <4 x float> %132, float %131, i32 1
-  %134 = insertelement <4 x float> %133, float %131, i32 2
-  %135 = insertelement <4 x float> %134, float %131, i32 3
-  %136 = extractelement <4 x float> %135, i32 0
-  %137 = extractelement <4 x float> %135, i32 1
-  %138 = fmul float %60, %93
-  %139 = fmul float %60, %94
-  %140 = fmul float %60, %94
-  %141 = fmul float %60, %94
-  %142 = call i32 @llvm.SI.tid()
-  %143 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %142
-  %144 = bitcast float %138 to i32
-  store i32 %144, i32 addrspace(3)* %143
-  %145 = bitcast float %139 to i32
-  store i32 %145, i32 addrspace(3)* %143
-  %146 = bitcast float %140 to i32
-  store i32 %146, i32 addrspace(3)* %143
-  %147 = bitcast float %141 to i32
-  store i32 %147, i32 addrspace(3)* %143
-  %148 = call i32 @llvm.SI.tid()
-  %149 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %148
-  %150 = and i32 %148, -4
-  %151 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %150
-  %152 = add i32 %150, 2
-  %153 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %152
-  %154 = bitcast float %138 to i32
-  store i32 %154, i32 addrspace(3)* %149
-  %155 = load i32, i32 addrspace(3)* %151
-  %156 = bitcast i32 %155 to float
-  %157 = load i32, i32 addrspace(3)* %153
-  %158 = bitcast i32 %157 to float
-  %159 = fsub float %158, %156
-  %160 = bitcast float %139 to i32
-  store i32 %160, i32 addrspace(3)* %149
-  %161 = load i32, i32 addrspace(3)* %151
-  %162 = bitcast i32 %161 to float
-  %163 = load i32, i32 addrspace(3)* %153
-  %164 = bitcast i32 %163 to float
-  %165 = fsub float %164, %162
-  %166 = bitcast float %140 to i32
-  store i32 %166, i32 addrspace(3)* %149
-  %167 = load i32, i32 addrspace(3)* %151
-  %168 = bitcast i32 %167 to float
-  %169 = load i32, i32 addrspace(3)* %153
-  %170 = bitcast i32 %169 to float
-  %171 = fsub float %170, %168
-  %172 = bitcast float %141 to i32
-  store i32 %172, i32 addrspace(3)* %149
-  %173 = load i32, i32 addrspace(3)* %151
-  %174 = bitcast i32 %173 to float
-  %175 = load i32, i32 addrspace(3)* %153
-  %176 = bitcast i32 %175 to float
-  %177 = fsub float %176, %174
-  %178 = insertelement <4 x float> undef, float %159, i32 0
-  %179 = insertelement <4 x float> %178, float %165, i32 1
-  %180 = insertelement <4 x float> %179, float %171, i32 2
-  %181 = insertelement <4 x float> %180, float %177, i32 3
-  %182 = extractelement <4 x float> %181, i32 0
-  %183 = extractelement <4 x float> %181, i32 1
-  %184 = fdiv float 1.000000e+00, %97
-  %185 = fmul float %33, %184
-  %186 = fcmp uge float 1.000000e+00, %185
-  %187 = select i1 %186, float %185, float 1.000000e+00
-  %188 = fmul float %187, %30
-  %189 = call float @ceil(float %188)
-  %190 = fcmp uge float 3.000000e+00, %189
-  %191 = select i1 %190, float 3.000000e+00, float %189
-  %192 = fdiv float 1.000000e+00, %191
-  %193 = fdiv float 1.000000e+00, %30
-  %194 = fmul float %191, %193
-  %195 = fmul float %31, %194
-  %196 = fmul float %95, %95
-  %197 = fmul float %96, %96
-  %198 = fadd float %197, %196
-  %199 = fmul float %97, %97
-  %200 = fadd float %198, %199
-  %201 = call float @llvm.AMDGPU.rsq.f32(float %200)
-  %202 = fmul float %95, %201
-  %203 = fmul float %96, %201
-  %204 = fmul float %202, %29
-  %205 = fmul float %203, %29
-  %206 = fmul float %204, -1.000000e+00
-  %207 = fmul float %205, 1.000000e+00
-  %208 = fmul float %206, %32
-  %209 = fmul float %207, %32
-  %210 = fsub float -0.000000e+00, %208
-  %211 = fadd float %93, %210
-  %212 = fsub float -0.000000e+00, %209
-  %213 = fadd float %94, %212
-  %214 = fmul float %206, %192
-  %215 = fmul float %207, %192
-  %216 = fmul float -1.000000e+00, %192
-  %217 = bitcast float %136 to i32
-  %218 = bitcast float %182 to i32
-  %219 = bitcast float %137 to i32
-  %220 = bitcast float %183 to i32
-  %221 = insertelement <8 x i32> undef, i32 %217, i32 0
-  %222 = insertelement <8 x i32> %221, i32 %218, i32 1
-  %223 = insertelement <8 x i32> %222, i32 %219, i32 2
-  %224 = insertelement <8 x i32> %223, i32 %220, i32 3
+  %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0
+  %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 96)
+  %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 100)
+  %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 104)
+  %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 112)
+  %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 116)
+  %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 120)
+  %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 128)
+  %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 132)
+  %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 140)
+  %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 144)
+  %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 160)
+  %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 176)
+  %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 180)
+  %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 184)
+  %tmp36 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 192)
+  %tmp37 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 196)
+  %tmp38 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 200)
+  %tmp39 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 208)
+  %tmp40 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 212)
+  %tmp41 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 216)
+  %tmp42 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 224)
+  %tmp43 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 240)
+  %tmp44 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 244)
+  %tmp45 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 248)
+  %tmp46 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 256)
+  %tmp47 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 272)
+  %tmp48 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 276)
+  %tmp49 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 280)
+  %tmp50 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 288)
+  %tmp51 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 292)
+  %tmp52 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 296)
+  %tmp53 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 304)
+  %tmp54 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 308)
+  %tmp55 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 312)
+  %tmp56 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 368)
+  %tmp57 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 372)
+  %tmp58 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 376)
+  %tmp59 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 384)
+  %tmp60 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 0
+  %tmp61 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp60, !tbaa !0
+  %tmp62 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0
+  %tmp63 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp62, !tbaa !0
+  %tmp63.bc = bitcast <16 x i8> %tmp63 to <4 x i32>
+  %tmp64 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 1
+  %tmp65 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp64, !tbaa !0
+  %tmp66 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 1
+  %tmp67 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp66, !tbaa !0
+  %tmp68 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 2
+  %tmp69 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp68, !tbaa !0
+  %tmp70 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 2
+  %tmp71 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp70, !tbaa !0
+  %tmp72 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 3
+  %tmp73 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp72, !tbaa !0
+  %tmp74 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 3
+  %tmp75 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp74, !tbaa !0
+  %tmp76 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 4
+  %tmp77 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp76, !tbaa !0
+  %tmp78 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 4
+  %tmp79 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp78, !tbaa !0
+  %tmp80 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 5
+  %tmp81 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp80, !tbaa !0
+  %tmp82 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 5
+  %tmp83 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp82, !tbaa !0
+  %tmp84 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 6
+  %tmp85 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp84, !tbaa !0
+  %tmp86 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 6
+  %tmp87 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp86, !tbaa !0
+  %tmp88 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 7
+  %tmp89 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp88, !tbaa !0
+  %tmp90 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 7
+  %tmp91 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp90, !tbaa !0
+  %tmp92 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp93 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp94 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp95 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp96 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp97 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp98 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp99 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp100 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp101 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp102 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp103 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp104 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp105 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp106 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp107 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp108 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp109 = call i32 @llvm.SI.tid()
+  %tmp110 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp109
+  %tmp111 = bitcast float %tmp92 to i32
+  store i32 %tmp111, i32 addrspace(3)* %tmp110
+  %tmp112 = bitcast float %tmp93 to i32
+  store i32 %tmp112, i32 addrspace(3)* %tmp110
+  %tmp113 = call i32 @llvm.SI.tid()
+  %tmp114 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp113
+  %tmp115 = and i32 %tmp113, -4
+  %tmp116 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp115
+  %tmp117 = add i32 %tmp115, 1
+  %tmp118 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp117
+  %tmp119 = bitcast float %tmp92 to i32
+  store i32 %tmp119, i32 addrspace(3)* %tmp114
+  %tmp120 = load i32, i32 addrspace(3)* %tmp116
+  %tmp121 = bitcast i32 %tmp120 to float
+  %tmp122 = load i32, i32 addrspace(3)* %tmp118
+  %tmp123 = bitcast i32 %tmp122 to float
+  %tmp124 = fsub float %tmp123, %tmp121
+  %tmp125 = bitcast float %tmp93 to i32
+  store i32 %tmp125, i32 addrspace(3)* %tmp114
+  %tmp126 = load i32, i32 addrspace(3)* %tmp116
+  %tmp127 = bitcast i32 %tmp126 to float
+  %tmp128 = load i32, i32 addrspace(3)* %tmp118
+  %tmp129 = bitcast i32 %tmp128 to float
+  %tmp130 = fsub float %tmp129, %tmp127
+  %tmp131 = insertelement <4 x float> undef, float %tmp124, i32 0
+  %tmp132 = insertelement <4 x float> %tmp131, float %tmp130, i32 1
+  %tmp133 = insertelement <4 x float> %tmp132, float %tmp130, i32 2
+  %tmp134 = insertelement <4 x float> %tmp133, float %tmp130, i32 3
+  %tmp135 = extractelement <4 x float> %tmp134, i32 0
+  %tmp136 = extractelement <4 x float> %tmp134, i32 1
+  %tmp137 = fmul float %tmp59, %tmp92
+  %tmp138 = fmul float %tmp59, %tmp93
+  %tmp139 = fmul float %tmp59, %tmp93
+  %tmp140 = fmul float %tmp59, %tmp93
+  %tmp141 = call i32 @llvm.SI.tid()
+  %tmp142 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp141
+  %tmp143 = bitcast float %tmp137 to i32
+  store i32 %tmp143, i32 addrspace(3)* %tmp142
+  %tmp144 = bitcast float %tmp138 to i32
+  store i32 %tmp144, i32 addrspace(3)* %tmp142
+  %tmp145 = bitcast float %tmp139 to i32
+  store i32 %tmp145, i32 addrspace(3)* %tmp142
+  %tmp146 = bitcast float %tmp140 to i32
+  store i32 %tmp146, i32 addrspace(3)* %tmp142
+  %tmp147 = call i32 @llvm.SI.tid()
+  %tmp148 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp147
+  %tmp149 = and i32 %tmp147, -4
+  %tmp150 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp149
+  %tmp151 = add i32 %tmp149, 2
+  %tmp152 = getelementptr [64 x i32], [64 x i32] addrspace(3)* @ddxy_lds, i32 0, i32 %tmp151
+  %tmp153 = bitcast float %tmp137 to i32
+  store i32 %tmp153, i32 addrspace(3)* %tmp148
+  %tmp154 = load i32, i32 addrspace(3)* %tmp150
+  %tmp155 = bitcast i32 %tmp154 to float
+  %tmp156 = load i32, i32 addrspace(3)* %tmp152
+  %tmp157 = bitcast i32 %tmp156 to float
+  %tmp158 = fsub float %tmp157, %tmp155
+  %tmp159 = bitcast float %tmp138 to i32
+  store i32 %tmp159, i32 addrspace(3)* %tmp148
+  %tmp160 = load i32, i32 addrspace(3)* %tmp150
+  %tmp161 = bitcast i32 %tmp160 to float
+  %tmp162 = load i32, i32 addrspace(3)* %tmp152
+  %tmp163 = bitcast i32 %tmp162 to float
+  %tmp164 = fsub float %tmp163, %tmp161
+  %tmp165 = bitcast float %tmp139 to i32
+  store i32 %tmp165, i32 addrspace(3)* %tmp148
+  %tmp166 = load i32, i32 addrspace(3)* %tmp150
+  %tmp167 = bitcast i32 %tmp166 to float
+  %tmp168 = load i32, i32 addrspace(3)* %tmp152
+  %tmp169 = bitcast i32 %tmp168 to float
+  %tmp170 = fsub float %tmp169, %tmp167
+  %tmp171 = bitcast float %tmp140 to i32
+  store i32 %tmp171, i32 addrspace(3)* %tmp148
+  %tmp172 = load i32, i32 addrspace(3)* %tmp150
+  %tmp173 = bitcast i32 %tmp172 to float
+  %tmp174 = load i32, i32 addrspace(3)* %tmp152
+  %tmp175 = bitcast i32 %tmp174 to float
+  %tmp176 = fsub float %tmp175, %tmp173
+  %tmp177 = insertelement <4 x float> undef, float %tmp158, i32 0
+  %tmp178 = insertelement <4 x float> %tmp177, float %tmp164, i32 1
+  %tmp179 = insertelement <4 x float> %tmp178, float %tmp170, i32 2
+  %tmp180 = insertelement <4 x float> %tmp179, float %tmp176, i32 3
+  %tmp181 = extractelement <4 x float> %tmp180, i32 0
+  %tmp182 = extractelement <4 x float> %tmp180, i32 1
+  %tmp183 = fdiv float 1.000000e+00, %tmp96
+  %tmp184 = fmul float %tmp32, %tmp183
+  %tmp185 = fcmp uge float 1.000000e+00, %tmp184
+  %tmp186 = select i1 %tmp185, float %tmp184, float 1.000000e+00
+  %tmp187 = fmul float %tmp186, %tmp29
+  %tmp188 = call float @ceil(float %tmp187)
+  %tmp189 = fcmp uge float 3.000000e+00, %tmp188
+  %tmp190 = select i1 %tmp189, float 3.000000e+00, float %tmp188
+  %tmp191 = fdiv float 1.000000e+00, %tmp190
+  %tmp192 = fdiv float 1.000000e+00, %tmp29
+  %tmp193 = fmul float %tmp190, %tmp192
+  %tmp194 = fmul float %tmp30, %tmp193
+  %tmp195 = fmul float %tmp94, %tmp94
+  %tmp196 = fmul float %tmp95, %tmp95
+  %tmp197 = fadd float %tmp196, %tmp195
+  %tmp198 = fmul float %tmp96, %tmp96
+  %tmp199 = fadd float %tmp197, %tmp198
+  %tmp200 = call float @llvm.amdgcn.rsq.f32(float %tmp199)
+  %tmp201 = fmul float %tmp94, %tmp200
+  %tmp202 = fmul float %tmp95, %tmp200
+  %tmp203 = fmul float %tmp201, %tmp28
+  %tmp204 = fmul float %tmp202, %tmp28
+  %tmp205 = fmul float %tmp203, -1.000000e+00
+  %tmp206 = fmul float %tmp204, 1.000000e+00
+  %tmp207 = fmul float %tmp205, %tmp31
+  %tmp208 = fmul float %tmp206, %tmp31
+  %tmp209 = fsub float -0.000000e+00, %tmp207
+  %tmp210 = fadd float %tmp92, %tmp209
+  %tmp211 = fsub float -0.000000e+00, %tmp208
+  %tmp212 = fadd float %tmp93, %tmp211
+  %tmp213 = fmul float %tmp205, %tmp191
+  %tmp214 = fmul float %tmp206, %tmp191
+  %tmp215 = fmul float -1.000000e+00, %tmp191
+  %tmp216 = bitcast float %tmp135 to i32
+  %tmp217 = bitcast float %tmp181 to i32
+  %tmp218 = bitcast float %tmp136 to i32
+  %tmp219 = bitcast float %tmp182 to i32
+  %tmp220 = insertelement <8 x i32> undef, i32 %tmp216, i32 0
+  %tmp221 = insertelement <8 x i32> %tmp220, i32 %tmp217, i32 1
+  %tmp222 = insertelement <8 x i32> %tmp221, i32 %tmp218, i32 2
+  %tmp223 = insertelement <8 x i32> %tmp222, i32 %tmp219, i32 3
   br label %LOOP
 
 LOOP:                                             ; preds = %ENDIF, %main_body
-  %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %258, %ENDIF ]
-  %temp28.0 = phi float [ %211, %main_body ], [ %253, %ENDIF ]
-  %temp29.0 = phi float [ %213, %main_body ], [ %255, %ENDIF ]
-  %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %257, %ENDIF ]
-  %225 = fcmp oge float %temp24.0, %191
-  %226 = sext i1 %225 to i32
-  %227 = bitcast i32 %226 to float
-  %228 = bitcast float %227 to i32
-  %229 = icmp ne i32 %228, 0
-  br i1 %229, label %IF, label %ENDIF
+  %temp24.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp257, %ENDIF ]
+  %temp28.0 = phi float [ %tmp210, %main_body ], [ %tmp252, %ENDIF ]
+  %temp29.0 = phi float [ %tmp212, %main_body ], [ %tmp254, %ENDIF ]
+  %temp30.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp256, %ENDIF ]
+  %tmp224 = fcmp oge float %temp24.0, %tmp190
+  %tmp225 = sext i1 %tmp224 to i32
+  %tmp226 = bitcast i32 %tmp225 to float
+  %tmp227 = bitcast float %tmp226 to i32
+  %tmp228 = icmp ne i32 %tmp227, 0
+  br i1 %tmp228, label %IF, label %ENDIF
 
 IF:                                               ; preds = %LOOP
-  %230 = bitcast float %136 to i32
-  %231 = bitcast float %182 to i32
-  %232 = bitcast float %137 to i32
-  %233 = bitcast float %183 to i32
-  %234 = insertelement <8 x i32> undef, i32 %230, i32 0
-  %235 = insertelement <8 x i32> %234, i32 %231, i32 1
-  %236 = insertelement <8 x i32> %235, i32 %232, i32 2
-  %237 = insertelement <8 x i32> %236, i32 %233, i32 3
+  %tmp229 = bitcast float %tmp135 to i32
+  %tmp230 = bitcast float %tmp181 to i32
+  %tmp231 = bitcast float %tmp136 to i32
+  %tmp232 = bitcast float %tmp182 to i32
+  %tmp233 = insertelement <8 x i32> undef, i32 %tmp229, i32 0
+  %tmp234 = insertelement <8 x i32> %tmp233, i32 %tmp230, i32 1
+  %tmp235 = insertelement <8 x i32> %tmp234, i32 %tmp231, i32 2
+  %tmp236 = insertelement <8 x i32> %tmp235, i32 %tmp232, i32 3
   br label %LOOP65
 
 ENDIF:                                            ; preds = %LOOP
-  %238 = bitcast float %temp28.0 to i32
-  %239 = bitcast float %temp29.0 to i32
-  %240 = insertelement <8 x i32> %224, i32 %238, i32 4
-  %241 = insertelement <8 x i32> %240, i32 %239, i32 5
-  %242 = insertelement <8 x i32> %241, i32 undef, i32 6
-  %243 = insertelement <8 x i32> %242, i32 undef, i32 7
-  %244 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %243, <32 x i8> %62, <16 x i8> %64, i32 2)
-  %245 = extractelement <4 x float> %244, i32 3
-  %246 = fcmp oge float %temp30.0, %245
-  %247 = sext i1 %246 to i32
-  %248 = bitcast i32 %247 to float
-  %249 = bitcast float %248 to i32
-  %250 = and i32 %249, 1065353216
-  %251 = bitcast i32 %250 to float
-  %252 = fmul float %214, %251
-  %253 = fadd float %252, %temp28.0
-  %254 = fmul float %215, %251
-  %255 = fadd float %254, %temp29.0
-  %256 = fmul float %216, %251
-  %257 = fadd float %256, %temp30.0
-  %258 = fadd float %temp24.0, 1.000000e+00
+  %tmp237 = bitcast float %temp28.0 to i32
+  %tmp238 = bitcast float %temp29.0 to i32
+  %tmp239 = insertelement <8 x i32> %tmp223, i32 %tmp237, i32 4
+  %tmp240 = insertelement <8 x i32> %tmp239, i32 %tmp238, i32 5
+  %tmp241 = insertelement <8 x i32> %tmp240, i32 undef, i32 6
+  %tmp242 = insertelement <8 x i32> %tmp241, i32 undef, i32 7
+  %tmp243 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp242, <8 x i32> %tmp61, <4 x i32> %tmp63.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp244 = extractelement <4 x float> %tmp243, i32 3
+  %tmp245 = fcmp oge float %temp30.0, %tmp244
+  %tmp246 = sext i1 %tmp245 to i32
+  %tmp247 = bitcast i32 %tmp246 to float
+  %tmp248 = bitcast float %tmp247 to i32
+  %tmp249 = and i32 %tmp248, 1065353216
+  %tmp250 = bitcast i32 %tmp249 to float
+  %tmp251 = fmul float %tmp213, %tmp250
+  %tmp252 = fadd float %tmp251, %temp28.0
+  %tmp253 = fmul float %tmp214, %tmp250
+  %tmp254 = fadd float %tmp253, %temp29.0
+  %tmp255 = fmul float %tmp215, %tmp250
+  %tmp256 = fadd float %tmp255, %temp30.0
+  %tmp257 = fadd float %temp24.0, 1.000000e+00
   br label %LOOP
 
 LOOP65:                                           ; preds = %ENDIF66, %IF
-  %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %610, %ENDIF66 ]
-  %temp28.1 = phi float [ %temp28.0, %IF ], [ %605, %ENDIF66 ]
-  %temp29.1 = phi float [ %temp29.0, %IF ], [ %607, %ENDIF66 ]
-  %temp30.1 = phi float [ %temp30.0, %IF ], [ %609, %ENDIF66 ]
-  %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %611, %ENDIF66 ]
-  %259 = fcmp oge float %temp24.1, %195
-  %260 = sext i1 %259 to i32
-  %261 = bitcast i32 %260 to float
-  %262 = bitcast float %261 to i32
-  %263 = icmp ne i32 %262, 0
-  br i1 %263, label %IF67, label %ENDIF66
+  %temp24.1 = phi float [ 0.000000e+00, %IF ], [ %tmp609, %ENDIF66 ]
+  %temp28.1 = phi float [ %temp28.0, %IF ], [ %tmp604, %ENDIF66 ]
+  %temp29.1 = phi float [ %temp29.0, %IF ], [ %tmp606, %ENDIF66 ]
+  %temp30.1 = phi float [ %temp30.0, %IF ], [ %tmp608, %ENDIF66 ]
+  %temp32.0 = phi float [ 1.000000e+00, %IF ], [ %tmp610, %ENDIF66 ]
+  %tmp258 = fcmp oge float %temp24.1, %tmp194
+  %tmp259 = sext i1 %tmp258 to i32
+  %tmp260 = bitcast i32 %tmp259 to float
+  %tmp261 = bitcast float %tmp260 to i32
+  %tmp262 = icmp ne i32 %tmp261, 0
+  br i1 %tmp262, label %IF67, label %ENDIF66
 
 IF67:                                             ; preds = %LOOP65
-  %264 = bitcast float %136 to i32
-  %265 = bitcast float %182 to i32
-  %266 = bitcast float %137 to i32
-  %267 = bitcast float %183 to i32
-  %268 = bitcast float %temp28.1 to i32
-  %269 = bitcast float %temp29.1 to i32
-  %270 = insertelement <8 x i32> undef, i32 %264, i32 0
-  %271 = insertelement <8 x i32> %270, i32 %265, i32 1
-  %272 = insertelement <8 x i32> %271, i32 %266, i32 2
-  %273 = insertelement <8 x i32> %272, i32 %267, i32 3
-  %274 = insertelement <8 x i32> %273, i32 %268, i32 4
-  %275 = insertelement <8 x i32> %274, i32 %269, i32 5
-  %276 = insertelement <8 x i32> %275, i32 undef, i32 6
-  %277 = insertelement <8 x i32> %276, i32 undef, i32 7
-  %278 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %277, <32 x i8> %66, <16 x i8> %68, i32 2)
-  %279 = extractelement <4 x float> %278, i32 0
-  %280 = extractelement <4 x float> %278, i32 1
-  %281 = extractelement <4 x float> %278, i32 2
-  %282 = extractelement <4 x float> %278, i32 3
-  %283 = fmul float %282, %47
-  %284 = bitcast float %136 to i32
-  %285 = bitcast float %182 to i32
-  %286 = bitcast float %137 to i32
-  %287 = bitcast float %183 to i32
-  %288 = bitcast float %temp28.1 to i32
-  %289 = bitcast float %temp29.1 to i32
-  %290 = insertelement <8 x i32> undef, i32 %284, i32 0
-  %291 = insertelement <8 x i32> %290, i32 %285, i32 1
-  %292 = insertelement <8 x i32> %291, i32 %286, i32 2
-  %293 = insertelement <8 x i32> %292, i32 %287, i32 3
-  %294 = insertelement <8 x i32> %293, i32 %288, i32 4
-  %295 = insertelement <8 x i32> %294, i32 %289, i32 5
-  %296 = insertelement <8 x i32> %295, i32 undef, i32 6
-  %297 = insertelement <8 x i32> %296, i32 undef, i32 7
-  %298 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %297, <32 x i8> %82, <16 x i8> %84, i32 2)
-  %299 = extractelement <4 x float> %298, i32 0
-  %300 = extractelement <4 x float> %298, i32 1
-  %301 = extractelement <4 x float> %298, i32 2
-  %302 = bitcast float %136 to i32
-  %303 = bitcast float %182 to i32
-  %304 = bitcast float %137 to i32
-  %305 = bitcast float %183 to i32
-  %306 = bitcast float %temp28.1 to i32
-  %307 = bitcast float %temp29.1 to i32
-  %308 = insertelement <8 x i32> undef, i32 %302, i32 0
-  %309 = insertelement <8 x i32> %308, i32 %303, i32 1
-  %310 = insertelement <8 x i32> %309, i32 %304, i32 2
-  %311 = insertelement <8 x i32> %310, i32 %305, i32 3
-  %312 = insertelement <8 x i32> %311, i32 %306, i32 4
-  %313 = insertelement <8 x i32> %312, i32 %307, i32 5
-  %314 = insertelement <8 x i32> %313, i32 undef, i32 6
-  %315 = insertelement <8 x i32> %314, i32 undef, i32 7
-  %316 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %315, <32 x i8> %78, <16 x i8> %80, i32 2)
-  %317 = extractelement <4 x float> %316, i32 0
-  %318 = extractelement <4 x float> %316, i32 1
-  %319 = extractelement <4 x float> %316, i32 2
-  %320 = fmul float %317, %23
-  %321 = fmul float %318, %24
-  %322 = fmul float %319, %25
-  %323 = fmul float %299, %26
-  %324 = fadd float %323, %320
-  %325 = fmul float %300, %27
-  %326 = fadd float %325, %321
-  %327 = fmul float %301, %28
-  %328 = fadd float %327, %322
-  %329 = fadd float %279, %324
-  %330 = fadd float %280, %326
-  %331 = fadd float %281, %328
-  %332 = bitcast float %136 to i32
-  %333 = bitcast float %182 to i32
-  %334 = bitcast float %137 to i32
-  %335 = bitcast float %183 to i32
-  %336 = bitcast float %temp28.1 to i32
-  %337 = bitcast float %temp29.1 to i32
-  %338 = insertelement <8 x i32> undef, i32 %332, i32 0
-  %339 = insertelement <8 x i32> %338, i32 %333, i32 1
-  %340 = insertelement <8 x i32> %339, i32 %334, i32 2
-  %341 = insertelement <8 x i32> %340, i32 %335, i32 3
-  %342 = insertelement <8 x i32> %341, i32 %336, i32 4
-  %343 = insertelement <8 x i32> %342, i32 %337, i32 5
-  %344 = insertelement <8 x i32> %343, i32 undef, i32 6
-  %345 = insertelement <8 x i32> %344, i32 undef, i32 7
-  %346 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %345, <32 x i8> %62, <16 x i8> %64, i32 2)
-  %347 = extractelement <4 x float> %346, i32 0
-  %348 = extractelement <4 x float> %346, i32 1
-  %349 = extractelement <4 x float> %346, i32 2
-  %350 = fadd float %347, -5.000000e-01
-  %351 = fadd float %348, -5.000000e-01
-  %352 = fadd float %349, -5.000000e-01
-  %353 = fmul float %350, %350
-  %354 = fmul float %351, %351
-  %355 = fadd float %354, %353
-  %356 = fmul float %352, %352
-  %357 = fadd float %355, %356
-  %358 = call float @llvm.AMDGPU.rsq.f32(float %357)
-  %359 = fmul float %350, %358
-  %360 = fmul float %351, %358
-  %361 = fmul float %352, %358
-  %362 = bitcast float %136 to i32
-  %363 = bitcast float %182 to i32
-  %364 = bitcast float %137 to i32
-  %365 = bitcast float %183 to i32
-  %366 = bitcast float %temp28.1 to i32
-  %367 = bitcast float %temp29.1 to i32
-  %368 = insertelement <8 x i32> undef, i32 %362, i32 0
-  %369 = insertelement <8 x i32> %368, i32 %363, i32 1
-  %370 = insertelement <8 x i32> %369, i32 %364, i32 2
-  %371 = insertelement <8 x i32> %370, i32 %365, i32 3
-  %372 = insertelement <8 x i32> %371, i32 %366, i32 4
-  %373 = insertelement <8 x i32> %372, i32 %367, i32 5
-  %374 = insertelement <8 x i32> %373, i32 undef, i32 6
-  %375 = insertelement <8 x i32> %374, i32 undef, i32 7
-  %376 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %375, <32 x i8> %70, <16 x i8> %72, i32 2)
-  %377 = extractelement <4 x float> %376, i32 0
-  %378 = extractelement <4 x float> %376, i32 1
-  %379 = extractelement <4 x float> %376, i32 2
-  %380 = extractelement <4 x float> %376, i32 3
-  %381 = fsub float -0.000000e+00, %95
-  %382 = fsub float -0.000000e+00, %96
-  %383 = fsub float -0.000000e+00, %97
-  %384 = fmul float %359, %381
-  %385 = fmul float %360, %382
-  %386 = fadd float %385, %384
-  %387 = fmul float %361, %383
-  %388 = fadd float %386, %387
-  %389 = fmul float %388, %359
-  %390 = fmul float %388, %360
-  %391 = fmul float %388, %361
-  %392 = fmul float 2.000000e+00, %389
-  %393 = fmul float 2.000000e+00, %390
-  %394 = fmul float 2.000000e+00, %391
-  %395 = fsub float -0.000000e+00, %392
-  %396 = fadd float %381, %395
-  %397 = fsub float -0.000000e+00, %393
-  %398 = fadd float %382, %397
-  %399 = fsub float -0.000000e+00, %394
-  %400 = fadd float %383, %399
-  %401 = fmul float %396, %98
-  %402 = fmul float %396, %99
-  %403 = fmul float %396, %100
-  %404 = fmul float %398, %101
-  %405 = fadd float %404, %401
-  %406 = fmul float %398, %102
-  %407 = fadd float %406, %402
-  %408 = fmul float %398, %103
-  %409 = fadd float %408, %403
-  %410 = fmul float %400, %104
-  %411 = fadd float %410, %405
-  %412 = fmul float %400, %105
-  %413 = fadd float %412, %407
-  %414 = fmul float %400, %106
-  %415 = fadd float %414, %409
-  %416 = bitcast float %136 to i32
-  %417 = bitcast float %182 to i32
-  %418 = bitcast float %137 to i32
-  %419 = bitcast float %183 to i32
-  %420 = bitcast float %temp28.1 to i32
-  %421 = bitcast float %temp29.1 to i32
-  %422 = insertelement <8 x i32> undef, i32 %416, i32 0
-  %423 = insertelement <8 x i32> %422, i32 %417, i32 1
-  %424 = insertelement <8 x i32> %423, i32 %418, i32 2
-  %425 = insertelement <8 x i32> %424, i32 %419, i32 3
-  %426 = insertelement <8 x i32> %425, i32 %420, i32 4
-  %427 = insertelement <8 x i32> %426, i32 %421, i32 5
-  %428 = insertelement <8 x i32> %427, i32 undef, i32 6
-  %429 = insertelement <8 x i32> %428, i32 undef, i32 7
-  %430 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %429, <32 x i8> %86, <16 x i8> %88, i32 2)
-  %431 = extractelement <4 x float> %430, i32 0
-  %432 = extractelement <4 x float> %430, i32 1
-  %433 = extractelement <4 x float> %430, i32 2
-  %434 = fmul float %48, %411
-  %435 = fmul float %49, %411
-  %436 = fmul float %50, %411
-  %437 = fmul float %51, %413
-  %438 = fadd float %437, %434
-  %439 = fmul float %52, %413
-  %440 = fadd float %439, %435
-  %441 = fmul float %53, %413
-  %442 = fadd float %441, %436
-  %443 = fmul float %54, %415
-  %444 = fadd float %443, %438
-  %445 = fmul float %55, %415
-  %446 = fadd float %445, %440
-  %447 = fmul float %56, %415
-  %448 = fadd float %447, %442
-  %449 = insertelement <4 x float> undef, float %444, i32 0
-  %450 = insertelement <4 x float> %449, float %446, i32 1
-  %451 = insertelement <4 x float> %450, float %448, i32 2
-  %452 = insertelement <4 x float> %451, float %195, i32 3
-  %453 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %452)
-  %454 = extractelement <4 x float> %453, i32 0
-  %455 = extractelement <4 x float> %453, i32 1
-  %456 = extractelement <4 x float> %453, i32 2
-  %457 = extractelement <4 x float> %453, i32 3
-  %458 = call float @fabs(float %456)
-  %459 = fdiv float 1.000000e+00, %458
-  %460 = fmul float %454, %459
-  %461 = fadd float %460, 1.500000e+00
-  %462 = fmul float %455, %459
-  %463 = fadd float %462, 1.500000e+00
-  %464 = bitcast float %463 to i32
-  %465 = bitcast float %461 to i32
-  %466 = bitcast float %457 to i32
-  %467 = insertelement <4 x i32> undef, i32 %464, i32 0
-  %468 = insertelement <4 x i32> %467, i32 %465, i32 1
-  %469 = insertelement <4 x i32> %468, i32 %466, i32 2
-  %470 = insertelement <4 x i32> %469, i32 undef, i32 3
-  %471 = call <4 x float> @llvm.SI.sample.v4i32(<4 x i32> %470, <32 x i8> %90, <16 x i8> %92, i32 4)
-  %472 = extractelement <4 x float> %471, i32 0
-  %473 = extractelement <4 x float> %471, i32 1
-  %474 = extractelement <4 x float> %471, i32 2
-  %475 = fmul float %431, %472
-  %476 = fadd float %475, %329
-  %477 = fmul float %432, %473
-  %478 = fadd float %477, %330
-  %479 = fmul float %433, %474
-  %480 = fadd float %479, %331
-  %481 = fmul float %107, %107
-  %482 = fmul float %108, %108
-  %483 = fadd float %482, %481
-  %484 = fmul float %109, %109
-  %485 = fadd float %483, %484
-  %486 = call float @llvm.AMDGPU.rsq.f32(float %485)
-  %487 = fmul float %107, %486
-  %488 = fmul float %108, %486
-  %489 = fmul float %109, %486
-  %490 = fmul float %377, %40
-  %491 = fmul float %378, %41
-  %492 = fmul float %379, %42
-  %493 = fmul float %359, %487
-  %494 = fmul float %360, %488
-  %495 = fadd float %494, %493
-  %496 = fmul float %361, %489
-  %497 = fadd float %495, %496
-  %498 = fmul float %497, %359
-  %499 = fmul float %497, %360
-  %500 = fmul float %497, %361
-  %501 = fmul float 2.000000e+00, %498
-  %502 = fmul float 2.000000e+00, %499
-  %503 = fmul float 2.000000e+00, %500
-  %504 = fsub float -0.000000e+00, %501
-  %505 = fadd float %487, %504
-  %506 = fsub float -0.000000e+00, %502
-  %507 = fadd float %488, %506
-  %508 = fsub float -0.000000e+00, %503
-  %509 = fadd float %489, %508
-  %510 = fmul float %95, %95
-  %511 = fmul float %96, %96
-  %512 = fadd float %511, %510
-  %513 = fmul float %97, %97
-  %514 = fadd float %512, %513
-  %515 = call float @llvm.AMDGPU.rsq.f32(float %514)
-  %516 = fmul float %95, %515
-  %517 = fmul float %96, %515
-  %518 = fmul float %97, %515
-  %519 = fmul float %505, %516
-  %520 = fmul float %507, %517
-  %521 = fadd float %520, %519
-  %522 = fmul float %509, %518
-  %523 = fadd float %521, %522
-  %524 = fsub float -0.000000e+00, %523
-  %525 = fcmp uge float %524, 0.000000e+00
-  %526 = select i1 %525, float %524, float 0.000000e+00
-  %527 = fmul float %43, %380
-  %528 = fadd float %527, 1.000000e+00
-  %529 = call float @llvm.pow.f32(float %526, float %528)
-  %530 = fmul float %476, %37
-  %531 = fmul float %478, %38
-  %532 = fmul float %480, %39
-  %533 = fmul float %359, %487
-  %534 = fmul float %360, %488
-  %535 = fadd float %534, %533
-  %536 = fmul float %361, %489
-  %537 = fadd float %535, %536
-  %538 = fcmp uge float %537, 0.000000e+00
-  %539 = select i1 %538, float %537, float 0.000000e+00
-  %540 = fmul float %530, %539
-  %541 = fmul float %531, %539
-  %542 = fmul float %532, %539
-  %543 = fmul float %490, %529
-  %544 = fadd float %543, %540
-  %545 = fmul float %491, %529
-  %546 = fadd float %545, %541
-  %547 = fmul float %492, %529
-  %548 = fadd float %547, %542
-  %549 = fmul float %476, %34
-  %550 = fmul float %478, %35
-  %551 = fmul float %480, %36
-  %552 = fmul float %544, %57
-  %553 = fadd float %552, %549
-  %554 = fmul float %546, %58
-  %555 = fadd float %554, %550
-  %556 = fmul float %548, %59
-  %557 = fadd float %556, %551
-  %558 = bitcast float %136 to i32
-  %559 = bitcast float %182 to i32
-  %560 = bitcast float %137 to i32
-  %561 = bitcast float %183 to i32
-  %562 = bitcast float %temp28.1 to i32
-  %563 = bitcast float %temp29.1 to i32
-  %564 = insertelement <8 x i32> undef, i32 %558, i32 0
-  %565 = insertelement <8 x i32> %564, i32 %559, i32 1
-  %566 = insertelement <8 x i32> %565, i32 %560, i32 2
-  %567 = insertelement <8 x i32> %566, i32 %561, i32 3
-  %568 = insertelement <8 x i32> %567, i32 %562, i32 4
-  %569 = insertelement <8 x i32> %568, i32 %563, i32 5
-  %570 = insertelement <8 x i32> %569, i32 undef, i32 6
-  %571 = insertelement <8 x i32> %570, i32 undef, i32 7
-  %572 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %571, <32 x i8> %74, <16 x i8> %76, i32 2)
-  %573 = extractelement <4 x float> %572, i32 0
-  %574 = extractelement <4 x float> %572, i32 1
-  %575 = extractelement <4 x float> %572, i32 2
-  %576 = fmul float %573, %44
-  %577 = fadd float %576, %553
-  %578 = fmul float %574, %45
-  %579 = fadd float %578, %555
-  %580 = fmul float %575, %46
-  %581 = fadd float %580, %557
-  %582 = call i32 @llvm.SI.packf16(float %577, float %579)
-  %583 = bitcast i32 %582 to float
-  %584 = call i32 @llvm.SI.packf16(float %581, float %283)
-  %585 = bitcast i32 %584 to float
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %583, float %585, float %583, float %585)
+  %tmp263 = bitcast float %tmp135 to i32
+  %tmp264 = bitcast float %tmp181 to i32
+  %tmp265 = bitcast float %tmp136 to i32
+  %tmp266 = bitcast float %tmp182 to i32
+  %tmp267 = bitcast float %temp28.1 to i32
+  %tmp268 = bitcast float %temp29.1 to i32
+  %tmp269 = insertelement <8 x i32> undef, i32 %tmp263, i32 0
+  %tmp270 = insertelement <8 x i32> %tmp269, i32 %tmp264, i32 1
+  %tmp271 = insertelement <8 x i32> %tmp270, i32 %tmp265, i32 2
+  %tmp272 = insertelement <8 x i32> %tmp271, i32 %tmp266, i32 3
+  %tmp273 = insertelement <8 x i32> %tmp272, i32 %tmp267, i32 4
+  %tmp274 = insertelement <8 x i32> %tmp273, i32 %tmp268, i32 5
+  %tmp275 = insertelement <8 x i32> %tmp274, i32 undef, i32 6
+  %tmp276 = insertelement <8 x i32> %tmp275, i32 undef, i32 7
+  %tmp67.bc = bitcast <16 x i8> %tmp67 to <4 x i32>
+  %tmp277 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp276, <8 x i32> %tmp65, <4 x i32> %tmp67.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp278 = extractelement <4 x float> %tmp277, i32 0
+  %tmp279 = extractelement <4 x float> %tmp277, i32 1
+  %tmp280 = extractelement <4 x float> %tmp277, i32 2
+  %tmp281 = extractelement <4 x float> %tmp277, i32 3
+  %tmp282 = fmul float %tmp281, %tmp46
+  %tmp283 = bitcast float %tmp135 to i32
+  %tmp284 = bitcast float %tmp181 to i32
+  %tmp285 = bitcast float %tmp136 to i32
+  %tmp286 = bitcast float %tmp182 to i32
+  %tmp287 = bitcast float %temp28.1 to i32
+  %tmp288 = bitcast float %temp29.1 to i32
+  %tmp289 = insertelement <8 x i32> undef, i32 %tmp283, i32 0
+  %tmp290 = insertelement <8 x i32> %tmp289, i32 %tmp284, i32 1
+  %tmp291 = insertelement <8 x i32> %tmp290, i32 %tmp285, i32 2
+  %tmp292 = insertelement <8 x i32> %tmp291, i32 %tmp286, i32 3
+  %tmp293 = insertelement <8 x i32> %tmp292, i32 %tmp287, i32 4
+  %tmp294 = insertelement <8 x i32> %tmp293, i32 %tmp288, i32 5
+  %tmp295 = insertelement <8 x i32> %tmp294, i32 undef, i32 6
+  %tmp296 = insertelement <8 x i32> %tmp295, i32 undef, i32 7
+  %tmp83.bc = bitcast <16 x i8> %tmp83 to <4 x i32>
+  %tmp297 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp296, <8 x i32> %tmp81, <4 x i32> %tmp83.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp298 = extractelement <4 x float> %tmp297, i32 0
+  %tmp299 = extractelement <4 x float> %tmp297, i32 1
+  %tmp300 = extractelement <4 x float> %tmp297, i32 2
+  %tmp301 = bitcast float %tmp135 to i32
+  %tmp302 = bitcast float %tmp181 to i32
+  %tmp303 = bitcast float %tmp136 to i32
+  %tmp304 = bitcast float %tmp182 to i32
+  %tmp305 = bitcast float %temp28.1 to i32
+  %tmp306 = bitcast float %temp29.1 to i32
+  %tmp307 = insertelement <8 x i32> undef, i32 %tmp301, i32 0
+  %tmp308 = insertelement <8 x i32> %tmp307, i32 %tmp302, i32 1
+  %tmp309 = insertelement <8 x i32> %tmp308, i32 %tmp303, i32 2
+  %tmp310 = insertelement <8 x i32> %tmp309, i32 %tmp304, i32 3
+  %tmp311 = insertelement <8 x i32> %tmp310, i32 %tmp305, i32 4
+  %tmp312 = insertelement <8 x i32> %tmp311, i32 %tmp306, i32 5
+  %tmp313 = insertelement <8 x i32> %tmp312, i32 undef, i32 6
+  %tmp314 = insertelement <8 x i32> %tmp313, i32 undef, i32 7
+  %tmp79.bc = bitcast <16 x i8> %tmp79 to <4 x i32>
+  %tmp315 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp314, <8 x i32> %tmp77, <4 x i32> %tmp79.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp316 = extractelement <4 x float> %tmp315, i32 0
+  %tmp317 = extractelement <4 x float> %tmp315, i32 1
+  %tmp318 = extractelement <4 x float> %tmp315, i32 2
+  %tmp319 = fmul float %tmp316, %tmp22
+  %tmp320 = fmul float %tmp317, %tmp23
+  %tmp321 = fmul float %tmp318, %tmp24
+  %tmp322 = fmul float %tmp298, %tmp25
+  %tmp323 = fadd float %tmp322, %tmp319
+  %tmp324 = fmul float %tmp299, %tmp26
+  %tmp325 = fadd float %tmp324, %tmp320
+  %tmp326 = fmul float %tmp300, %tmp27
+  %tmp327 = fadd float %tmp326, %tmp321
+  %tmp328 = fadd float %tmp278, %tmp323
+  %tmp329 = fadd float %tmp279, %tmp325
+  %tmp330 = fadd float %tmp280, %tmp327
+  %tmp331 = bitcast float %tmp135 to i32
+  %tmp332 = bitcast float %tmp181 to i32
+  %tmp333 = bitcast float %tmp136 to i32
+  %tmp334 = bitcast float %tmp182 to i32
+  %tmp335 = bitcast float %temp28.1 to i32
+  %tmp336 = bitcast float %temp29.1 to i32
+  %tmp337 = insertelement <8 x i32> undef, i32 %tmp331, i32 0
+  %tmp338 = insertelement <8 x i32> %tmp337, i32 %tmp332, i32 1
+  %tmp339 = insertelement <8 x i32> %tmp338, i32 %tmp333, i32 2
+  %tmp340 = insertelement <8 x i32> %tmp339, i32 %tmp334, i32 3
+  %tmp341 = insertelement <8 x i32> %tmp340, i32 %tmp335, i32 4
+  %tmp342 = insertelement <8 x i32> %tmp341, i32 %tmp336, i32 5
+  %tmp343 = insertelement <8 x i32> %tmp342, i32 undef, i32 6
+  %tmp344 = insertelement <8 x i32> %tmp343, i32 undef, i32 7
+  %tmp345 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp344, <8 x i32> %tmp61, <4 x i32> %tmp63.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp346 = extractelement <4 x float> %tmp345, i32 0
+  %tmp347 = extractelement <4 x float> %tmp345, i32 1
+  %tmp348 = extractelement <4 x float> %tmp345, i32 2
+  %tmp349 = fadd float %tmp346, -5.000000e-01
+  %tmp350 = fadd float %tmp347, -5.000000e-01
+  %tmp351 = fadd float %tmp348, -5.000000e-01
+  %tmp352 = fmul float %tmp349, %tmp349
+  %tmp353 = fmul float %tmp350, %tmp350
+  %tmp354 = fadd float %tmp353, %tmp352
+  %tmp355 = fmul float %tmp351, %tmp351
+  %tmp356 = fadd float %tmp354, %tmp355
+  %tmp357 = call float @llvm.amdgcn.rsq.f32(float %tmp356)
+  %tmp358 = fmul float %tmp349, %tmp357
+  %tmp359 = fmul float %tmp350, %tmp357
+  %tmp360 = fmul float %tmp351, %tmp357
+  %tmp361 = bitcast float %tmp135 to i32
+  %tmp362 = bitcast float %tmp181 to i32
+  %tmp363 = bitcast float %tmp136 to i32
+  %tmp364 = bitcast float %tmp182 to i32
+  %tmp365 = bitcast float %temp28.1 to i32
+  %tmp366 = bitcast float %temp29.1 to i32
+  %tmp367 = insertelement <8 x i32> undef, i32 %tmp361, i32 0
+  %tmp368 = insertelement <8 x i32> %tmp367, i32 %tmp362, i32 1
+  %tmp369 = insertelement <8 x i32> %tmp368, i32 %tmp363, i32 2
+  %tmp370 = insertelement <8 x i32> %tmp369, i32 %tmp364, i32 3
+  %tmp371 = insertelement <8 x i32> %tmp370, i32 %tmp365, i32 4
+  %tmp372 = insertelement <8 x i32> %tmp371, i32 %tmp366, i32 5
+  %tmp373 = insertelement <8 x i32> %tmp372, i32 undef, i32 6
+  %tmp374 = insertelement <8 x i32> %tmp373, i32 undef, i32 7
+  %tmp71.bc = bitcast <16 x i8> %tmp71 to <4 x i32>
+  %tmp375 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp374, <8 x i32> %tmp69, <4 x i32> %tmp71.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp376 = extractelement <4 x float> %tmp375, i32 0
+  %tmp377 = extractelement <4 x float> %tmp375, i32 1
+  %tmp378 = extractelement <4 x float> %tmp375, i32 2
+  %tmp379 = extractelement <4 x float> %tmp375, i32 3
+  %tmp380 = fsub float -0.000000e+00, %tmp94
+  %tmp381 = fsub float -0.000000e+00, %tmp95
+  %tmp382 = fsub float -0.000000e+00, %tmp96
+  %tmp383 = fmul float %tmp358, %tmp380
+  %tmp384 = fmul float %tmp359, %tmp381
+  %tmp385 = fadd float %tmp384, %tmp383
+  %tmp386 = fmul float %tmp360, %tmp382
+  %tmp387 = fadd float %tmp385, %tmp386
+  %tmp388 = fmul float %tmp387, %tmp358
+  %tmp389 = fmul float %tmp387, %tmp359
+  %tmp390 = fmul float %tmp387, %tmp360
+  %tmp391 = fmul float 2.000000e+00, %tmp388
+  %tmp392 = fmul float 2.000000e+00, %tmp389
+  %tmp393 = fmul float 2.000000e+00, %tmp390
+  %tmp394 = fsub float -0.000000e+00, %tmp391
+  %tmp395 = fadd float %tmp380, %tmp394
+  %tmp396 = fsub float -0.000000e+00, %tmp392
+  %tmp397 = fadd float %tmp381, %tmp396
+  %tmp398 = fsub float -0.000000e+00, %tmp393
+  %tmp399 = fadd float %tmp382, %tmp398
+  %tmp400 = fmul float %tmp395, %tmp97
+  %tmp401 = fmul float %tmp395, %tmp98
+  %tmp402 = fmul float %tmp395, %tmp99
+  %tmp403 = fmul float %tmp397, %tmp100
+  %tmp404 = fadd float %tmp403, %tmp400
+  %tmp405 = fmul float %tmp397, %tmp101
+  %tmp406 = fadd float %tmp405, %tmp401
+  %tmp407 = fmul float %tmp397, %tmp102
+  %tmp408 = fadd float %tmp407, %tmp402
+  %tmp409 = fmul float %tmp399, %tmp103
+  %tmp410 = fadd float %tmp409, %tmp404
+  %tmp411 = fmul float %tmp399, %tmp104
+  %tmp412 = fadd float %tmp411, %tmp406
+  %tmp413 = fmul float %tmp399, %tmp105
+  %tmp414 = fadd float %tmp413, %tmp408
+  %tmp415 = bitcast float %tmp135 to i32
+  %tmp416 = bitcast float %tmp181 to i32
+  %tmp417 = bitcast float %tmp136 to i32
+  %tmp418 = bitcast float %tmp182 to i32
+  %tmp419 = bitcast float %temp28.1 to i32
+  %tmp420 = bitcast float %temp29.1 to i32
+  %tmp421 = insertelement <8 x i32> undef, i32 %tmp415, i32 0
+  %tmp422 = insertelement <8 x i32> %tmp421, i32 %tmp416, i32 1
+  %tmp423 = insertelement <8 x i32> %tmp422, i32 %tmp417, i32 2
+  %tmp424 = insertelement <8 x i32> %tmp423, i32 %tmp418, i32 3
+  %tmp425 = insertelement <8 x i32> %tmp424, i32 %tmp419, i32 4
+  %tmp426 = insertelement <8 x i32> %tmp425, i32 %tmp420, i32 5
+  %tmp427 = insertelement <8 x i32> %tmp426, i32 undef, i32 6
+  %tmp428 = insertelement <8 x i32> %tmp427, i32 undef, i32 7
+  %tmp87.bc = bitcast <16 x i8> %tmp87 to <4 x i32>
+  %tmp429 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp428, <8 x i32> %tmp85, <4 x i32> %tmp87.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp430 = extractelement <4 x float> %tmp429, i32 0
+  %tmp431 = extractelement <4 x float> %tmp429, i32 1
+  %tmp432 = extractelement <4 x float> %tmp429, i32 2
+  %tmp433 = fmul float %tmp47, %tmp410
+  %tmp434 = fmul float %tmp48, %tmp410
+  %tmp435 = fmul float %tmp49, %tmp410
+  %tmp436 = fmul float %tmp50, %tmp412
+  %tmp437 = fadd float %tmp436, %tmp433
+  %tmp438 = fmul float %tmp51, %tmp412
+  %tmp439 = fadd float %tmp438, %tmp434
+  %tmp440 = fmul float %tmp52, %tmp412
+  %tmp441 = fadd float %tmp440, %tmp435
+  %tmp442 = fmul float %tmp53, %tmp414
+  %tmp443 = fadd float %tmp442, %tmp437
+  %tmp444 = fmul float %tmp54, %tmp414
+  %tmp445 = fadd float %tmp444, %tmp439
+  %tmp446 = fmul float %tmp55, %tmp414
+  %tmp447 = fadd float %tmp446, %tmp441
+  %tmp448 = insertelement <4 x float> undef, float %tmp443, i32 0
+  %tmp449 = insertelement <4 x float> %tmp448, float %tmp445, i32 1
+  %tmp450 = insertelement <4 x float> %tmp449, float %tmp447, i32 2
+  %tmp451 = insertelement <4 x float> %tmp450, float %tmp194, i32 3
+  %tmp452 = call <4 x float> @llvm.AMDGPU.cube(<4 x float> %tmp451)
+  %tmp453 = extractelement <4 x float> %tmp452, i32 0
+  %tmp454 = extractelement <4 x float> %tmp452, i32 1
+  %tmp455 = extractelement <4 x float> %tmp452, i32 2
+  %tmp456 = extractelement <4 x float> %tmp452, i32 3
+  %tmp457 = call float @fabs(float %tmp455)
+  %tmp458 = fdiv float 1.000000e+00, %tmp457
+  %tmp459 = fmul float %tmp453, %tmp458
+  %tmp460 = fadd float %tmp459, 1.500000e+00
+  %tmp461 = fmul float %tmp454, %tmp458
+  %tmp462 = fadd float %tmp461, 1.500000e+00
+  %tmp463 = bitcast float %tmp462 to i32
+  %tmp464 = bitcast float %tmp460 to i32
+  %tmp465 = bitcast float %tmp456 to i32
+  %tmp466 = insertelement <4 x i32> undef, i32 %tmp463, i32 0
+  %tmp467 = insertelement <4 x i32> %tmp466, i32 %tmp464, i32 1
+  %tmp468 = insertelement <4 x i32> %tmp467, i32 %tmp465, i32 2
+  %tmp469 = insertelement <4 x i32> %tmp468, i32 undef, i32 3
+  %tmp91.bc = bitcast <16 x i8> %tmp91 to <4 x i32>
+  %tmp470 = call <4 x float> @llvm.SI.image.sample.v4i32(<4 x i32> %tmp469, <8 x i32> %tmp89, <4 x i32> %tmp91.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp471 = extractelement <4 x float> %tmp470, i32 0
+  %tmp472 = extractelement <4 x float> %tmp470, i32 1
+  %tmp473 = extractelement <4 x float> %tmp470, i32 2
+  %tmp474 = fmul float %tmp430, %tmp471
+  %tmp475 = fadd float %tmp474, %tmp328
+  %tmp476 = fmul float %tmp431, %tmp472
+  %tmp477 = fadd float %tmp476, %tmp329
+  %tmp478 = fmul float %tmp432, %tmp473
+  %tmp479 = fadd float %tmp478, %tmp330
+  %tmp480 = fmul float %tmp106, %tmp106
+  %tmp481 = fmul float %tmp107, %tmp107
+  %tmp482 = fadd float %tmp481, %tmp480
+  %tmp483 = fmul float %tmp108, %tmp108
+  %tmp484 = fadd float %tmp482, %tmp483
+  %tmp485 = call float @llvm.amdgcn.rsq.f32(float %tmp484)
+  %tmp486 = fmul float %tmp106, %tmp485
+  %tmp487 = fmul float %tmp107, %tmp485
+  %tmp488 = fmul float %tmp108, %tmp485
+  %tmp489 = fmul float %tmp376, %tmp39
+  %tmp490 = fmul float %tmp377, %tmp40
+  %tmp491 = fmul float %tmp378, %tmp41
+  %tmp492 = fmul float %tmp358, %tmp486
+  %tmp493 = fmul float %tmp359, %tmp487
+  %tmp494 = fadd float %tmp493, %tmp492
+  %tmp495 = fmul float %tmp360, %tmp488
+  %tmp496 = fadd float %tmp494, %tmp495
+  %tmp497 = fmul float %tmp496, %tmp358
+  %tmp498 = fmul float %tmp496, %tmp359
+  %tmp499 = fmul float %tmp496, %tmp360
+  %tmp500 = fmul float 2.000000e+00, %tmp497
+  %tmp501 = fmul float 2.000000e+00, %tmp498
+  %tmp502 = fmul float 2.000000e+00, %tmp499
+  %tmp503 = fsub float -0.000000e+00, %tmp500
+  %tmp504 = fadd float %tmp486, %tmp503
+  %tmp505 = fsub float -0.000000e+00, %tmp501
+  %tmp506 = fadd float %tmp487, %tmp505
+  %tmp507 = fsub float -0.000000e+00, %tmp502
+  %tmp508 = fadd float %tmp488, %tmp507
+  %tmp509 = fmul float %tmp94, %tmp94
+  %tmp510 = fmul float %tmp95, %tmp95
+  %tmp511 = fadd float %tmp510, %tmp509
+  %tmp512 = fmul float %tmp96, %tmp96
+  %tmp513 = fadd float %tmp511, %tmp512
+  %tmp514 = call float @llvm.amdgcn.rsq.f32(float %tmp513)
+  %tmp515 = fmul float %tmp94, %tmp514
+  %tmp516 = fmul float %tmp95, %tmp514
+  %tmp517 = fmul float %tmp96, %tmp514
+  %tmp518 = fmul float %tmp504, %tmp515
+  %tmp519 = fmul float %tmp506, %tmp516
+  %tmp520 = fadd float %tmp519, %tmp518
+  %tmp521 = fmul float %tmp508, %tmp517
+  %tmp522 = fadd float %tmp520, %tmp521
+  %tmp523 = fsub float -0.000000e+00, %tmp522
+  %tmp524 = fcmp uge float %tmp523, 0.000000e+00
+  %tmp525 = select i1 %tmp524, float %tmp523, float 0.000000e+00
+  %tmp526 = fmul float %tmp42, %tmp379
+  %tmp527 = fadd float %tmp526, 1.000000e+00
+  %tmp528 = call float @llvm.pow.f32(float %tmp525, float %tmp527)
+  %tmp529 = fmul float %tmp475, %tmp36
+  %tmp530 = fmul float %tmp477, %tmp37
+  %tmp531 = fmul float %tmp479, %tmp38
+  %tmp532 = fmul float %tmp358, %tmp486
+  %tmp533 = fmul float %tmp359, %tmp487
+  %tmp534 = fadd float %tmp533, %tmp532
+  %tmp535 = fmul float %tmp360, %tmp488
+  %tmp536 = fadd float %tmp534, %tmp535
+  %tmp537 = fcmp uge float %tmp536, 0.000000e+00
+  %tmp538 = select i1 %tmp537, float %tmp536, float 0.000000e+00
+  %tmp539 = fmul float %tmp529, %tmp538
+  %tmp540 = fmul float %tmp530, %tmp538
+  %tmp541 = fmul float %tmp531, %tmp538
+  %tmp542 = fmul float %tmp489, %tmp528
+  %tmp543 = fadd float %tmp542, %tmp539
+  %tmp544 = fmul float %tmp490, %tmp528
+  %tmp545 = fadd float %tmp544, %tmp540
+  %tmp546 = fmul float %tmp491, %tmp528
+  %tmp547 = fadd float %tmp546, %tmp541
+  %tmp548 = fmul float %tmp475, %tmp33
+  %tmp549 = fmul float %tmp477, %tmp34
+  %tmp550 = fmul float %tmp479, %tmp35
+  %tmp551 = fmul float %tmp543, %tmp56
+  %tmp552 = fadd float %tmp551, %tmp548
+  %tmp553 = fmul float %tmp545, %tmp57
+  %tmp554 = fadd float %tmp553, %tmp549
+  %tmp555 = fmul float %tmp547, %tmp58
+  %tmp556 = fadd float %tmp555, %tmp550
+  %tmp557 = bitcast float %tmp135 to i32
+  %tmp558 = bitcast float %tmp181 to i32
+  %tmp559 = bitcast float %tmp136 to i32
+  %tmp560 = bitcast float %tmp182 to i32
+  %tmp561 = bitcast float %temp28.1 to i32
+  %tmp562 = bitcast float %temp29.1 to i32
+  %tmp563 = insertelement <8 x i32> undef, i32 %tmp557, i32 0
+  %tmp564 = insertelement <8 x i32> %tmp563, i32 %tmp558, i32 1
+  %tmp565 = insertelement <8 x i32> %tmp564, i32 %tmp559, i32 2
+  %tmp566 = insertelement <8 x i32> %tmp565, i32 %tmp560, i32 3
+  %tmp567 = insertelement <8 x i32> %tmp566, i32 %tmp561, i32 4
+  %tmp568 = insertelement <8 x i32> %tmp567, i32 %tmp562, i32 5
+  %tmp569 = insertelement <8 x i32> %tmp568, i32 undef, i32 6
+  %tmp570 = insertelement <8 x i32> %tmp569, i32 undef, i32 7
+  %tmp75.bc = bitcast <16 x i8> %tmp75 to <4 x i32>
+  %tmp571 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp570, <8 x i32> %tmp73, <4 x i32> %tmp75.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp572 = extractelement <4 x float> %tmp571, i32 0
+  %tmp573 = extractelement <4 x float> %tmp571, i32 1
+  %tmp574 = extractelement <4 x float> %tmp571, i32 2
+  %tmp575 = fmul float %tmp572, %tmp43
+  %tmp576 = fadd float %tmp575, %tmp552
+  %tmp577 = fmul float %tmp573, %tmp44
+  %tmp578 = fadd float %tmp577, %tmp554
+  %tmp579 = fmul float %tmp574, %tmp45
+  %tmp580 = fadd float %tmp579, %tmp556
+  %tmp581 = call i32 @llvm.SI.packf16(float %tmp576, float %tmp578)
+  %tmp582 = bitcast i32 %tmp581 to float
+  %tmp583 = call i32 @llvm.SI.packf16(float %tmp580, float %tmp282)
+  %tmp584 = bitcast i32 %tmp583 to float
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp582, float %tmp584, float %tmp582, float %tmp584)
   ret void
 
 ENDIF66:                                          ; preds = %LOOP65
-  %586 = bitcast float %temp28.1 to i32
-  %587 = bitcast float %temp29.1 to i32
-  %588 = insertelement <8 x i32> %237, i32 %586, i32 4
-  %589 = insertelement <8 x i32> %588, i32 %587, i32 5
-  %590 = insertelement <8 x i32> %589, i32 undef, i32 6
-  %591 = insertelement <8 x i32> %590, i32 undef, i32 7
-  %592 = call <4 x float> @llvm.SI.sampled.v8i32(<8 x i32> %591, <32 x i8> %62, <16 x i8> %64, i32 2)
-  %593 = extractelement <4 x float> %592, i32 3
-  %594 = fcmp oge float %temp30.1, %593
-  %595 = sext i1 %594 to i32
-  %596 = bitcast i32 %595 to float
-  %597 = bitcast float %596 to i32
-  %598 = and i32 %597, 1065353216
-  %599 = bitcast i32 %598 to float
-  %600 = fmul float 5.000000e-01, %temp32.0
-  %601 = fsub float -0.000000e+00, %600
-  %602 = fmul float %599, %temp32.0
-  %603 = fadd float %602, %601
-  %604 = fmul float %214, %603
-  %605 = fadd float %604, %temp28.1
-  %606 = fmul float %215, %603
-  %607 = fadd float %606, %temp29.1
-  %608 = fmul float %216, %603
-  %609 = fadd float %608, %temp30.1
-  %610 = fadd float %temp24.1, 1.000000e+00
-  %611 = fmul float %temp32.0, 5.000000e-01
+  %tmp585 = bitcast float %temp28.1 to i32
+  %tmp586 = bitcast float %temp29.1 to i32
+  %tmp587 = insertelement <8 x i32> %tmp236, i32 %tmp585, i32 4
+  %tmp588 = insertelement <8 x i32> %tmp587, i32 %tmp586, i32 5
+  %tmp589 = insertelement <8 x i32> %tmp588, i32 undef, i32 6
+  %tmp590 = insertelement <8 x i32> %tmp589, i32 undef, i32 7
+  %tmp591 = call <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32> %tmp590, <8 x i32> %tmp61, <4 x i32> %tmp63.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp592 = extractelement <4 x float> %tmp591, i32 3
+  %tmp593 = fcmp oge float %temp30.1, %tmp592
+  %tmp594 = sext i1 %tmp593 to i32
+  %tmp595 = bitcast i32 %tmp594 to float
+  %tmp596 = bitcast float %tmp595 to i32
+  %tmp597 = and i32 %tmp596, 1065353216
+  %tmp598 = bitcast i32 %tmp597 to float
+  %tmp599 = fmul float 5.000000e-01, %temp32.0
+  %tmp600 = fsub float -0.000000e+00, %tmp599
+  %tmp601 = fmul float %tmp598, %temp32.0
+  %tmp602 = fadd float %tmp601, %tmp600
+  %tmp603 = fmul float %tmp213, %tmp602
+  %tmp604 = fadd float %tmp603, %temp28.1
+  %tmp605 = fmul float %tmp214, %tmp602
+  %tmp606 = fadd float %tmp605, %temp29.1
+  %tmp607 = fmul float %tmp215, %tmp602
+  %tmp608 = fadd float %tmp607, %temp30.1
+  %tmp609 = fadd float %temp24.1, 1.000000e+00
+  %tmp610 = fmul float %temp32.0, 5.000000e-01
   br label %LOOP65
 }
 
-; Function Attrs: nounwind readnone
-declare float @llvm.SI.load.const(<16 x i8>, i32) #1
+; CHECK-LABEL: {{^}}main1:
+; CHECK: s_endpgm
+define void @main1([17 x <16 x i8>] addrspace(2)* byval %arg, [32 x <16 x i8>] addrspace(2)* byval %arg1, [16 x <8 x i32>] addrspace(2)* byval %arg2, float inreg %arg3, i32 inreg %arg4, <2 x i32> %arg5, <2 x i32> %arg6, <2 x i32> %arg7, <3 x i32> %arg8, <2 x i32> %arg9, <2 x i32> %arg10, <2 x i32> %arg11, float %arg12, float %arg13, float %arg14, float %arg15, float %arg16, float %arg17, float %arg18, float %arg19, float %arg20) #0 {
+main_body:
+  %tmp = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %arg, i64 0, i32 0
+  %tmp21 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp, !tbaa !0
+  %tmp22 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 0)
+  %tmp23 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 4)
+  %tmp24 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 8)
+  %tmp25 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 12)
+  %tmp26 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 28)
+  %tmp27 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 48)
+  %tmp28 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 52)
+  %tmp29 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 56)
+  %tmp30 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 64)
+  %tmp31 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 68)
+  %tmp32 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 72)
+  %tmp33 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 76)
+  %tmp34 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 128)
+  %tmp35 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 132)
+  %tmp36 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 144)
+  %tmp37 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 148)
+  %tmp38 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 152)
+  %tmp39 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 160)
+  %tmp40 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 164)
+  %tmp41 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 168)
+  %tmp42 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 172)
+  %tmp43 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 176)
+  %tmp44 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 180)
+  %tmp45 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 184)
+  %tmp46 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 192)
+  %tmp47 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 196)
+  %tmp48 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 200)
+  %tmp49 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 208)
+  %tmp50 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 212)
+  %tmp51 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 216)
+  %tmp52 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 220)
+  %tmp53 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 236)
+  %tmp54 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 240)
+  %tmp55 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 244)
+  %tmp56 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 248)
+  %tmp57 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 252)
+  %tmp58 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 256)
+  %tmp59 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 260)
+  %tmp60 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 264)
+  %tmp61 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 268)
+  %tmp62 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 272)
+  %tmp63 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 276)
+  %tmp64 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 280)
+  %tmp65 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 284)
+  %tmp66 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 288)
+  %tmp67 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 292)
+  %tmp68 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 464)
+  %tmp69 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 468)
+  %tmp70 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 472)
+  %tmp71 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 496)
+  %tmp72 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 500)
+  %tmp73 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 504)
+  %tmp74 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 512)
+  %tmp75 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 516)
+  %tmp76 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 524)
+  %tmp77 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 532)
+  %tmp78 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 536)
+  %tmp79 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 540)
+  %tmp80 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 544)
+  %tmp81 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 548)
+  %tmp82 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 552)
+  %tmp83 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 556)
+  %tmp84 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 560)
+  %tmp85 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 564)
+  %tmp86 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 568)
+  %tmp87 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 572)
+  %tmp88 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 576)
+  %tmp89 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 580)
+  %tmp90 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 584)
+  %tmp91 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 588)
+  %tmp92 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 592)
+  %tmp93 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 596)
+  %tmp94 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 600)
+  %tmp95 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 604)
+  %tmp96 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 608)
+  %tmp97 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 612)
+  %tmp98 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 616)
+  %tmp99 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 624)
+  %tmp100 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 628)
+  %tmp101 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 632)
+  %tmp102 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 636)
+  %tmp103 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 640)
+  %tmp104 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 644)
+  %tmp105 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 648)
+  %tmp106 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 652)
+  %tmp107 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 656)
+  %tmp108 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 660)
+  %tmp109 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 664)
+  %tmp110 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 668)
+  %tmp111 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 672)
+  %tmp112 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 676)
+  %tmp113 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 680)
+  %tmp114 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 684)
+  %tmp115 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 688)
+  %tmp116 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 692)
+  %tmp117 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 696)
+  %tmp118 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 700)
+  %tmp119 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 704)
+  %tmp120 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 708)
+  %tmp121 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 712)
+  %tmp122 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 716)
+  %tmp123 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 864)
+  %tmp124 = call float @llvm.SI.load.const(<16 x i8> %tmp21, i32 868)
+  %tmp125 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 0
+  %tmp126 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp125, !tbaa !0
+  %tmp127 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 0
+  %tmp128 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp127, !tbaa !0
+  %tmp129 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 1
+  %tmp130 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp129, !tbaa !0
+  %tmp131 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 1
+  %tmp132 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp131, !tbaa !0
+  %tmp133 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 2
+  %tmp134 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp133, !tbaa !0
+  %tmp135 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 2
+  %tmp136 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp135, !tbaa !0
+  %tmp137 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 3
+  %tmp138 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp137, !tbaa !0
+  %tmp139 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 3
+  %tmp140 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp139, !tbaa !0
+  %tmp141 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 4
+  %tmp142 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp141, !tbaa !0
+  %tmp143 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 4
+  %tmp144 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp143, !tbaa !0
+  %tmp145 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 5
+  %tmp146 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp145, !tbaa !0
+  %tmp147 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 5
+  %tmp148 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp147, !tbaa !0
+  %tmp149 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 6
+  %tmp150 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp149, !tbaa !0
+  %tmp151 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 6
+  %tmp152 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp151, !tbaa !0
+  %tmp153 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 7
+  %tmp154 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp153, !tbaa !0
+  %tmp155 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 7
+  %tmp156 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp155, !tbaa !0
+  %tmp157 = getelementptr [16 x <8 x i32>], [16 x <8 x i32>] addrspace(2)* %arg2, i64 0, i32 8
+  %tmp158 = load <8 x i32>, <8 x i32> addrspace(2)* %tmp157, !tbaa !0
+  %tmp159 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %arg1, i64 0, i32 8
+  %tmp160 = load <16 x i8>, <16 x i8> addrspace(2)* %tmp159, !tbaa !0
+  %tmp161 = fcmp ugt float %arg17, 0.000000e+00
+  %tmp162 = select i1 %tmp161, float 1.000000e+00, float 0.000000e+00
+  %tmp163 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp164 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp165 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp166 = call float @llvm.SI.fs.interp(i32 3, i32 0, i32 %arg4, <2 x i32> %arg6)
+  %tmp167 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp168 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp169 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp170 = call float @llvm.SI.fs.interp(i32 3, i32 1, i32 %arg4, <2 x i32> %arg6)
+  %tmp171 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp172 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp173 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp174 = call float @llvm.SI.fs.interp(i32 3, i32 2, i32 %arg4, <2 x i32> %arg6)
+  %tmp175 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp176 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp177 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp178 = call float @llvm.SI.fs.interp(i32 3, i32 3, i32 %arg4, <2 x i32> %arg6)
+  %tmp179 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp180 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp181 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp182 = call float @llvm.SI.fs.interp(i32 3, i32 4, i32 %arg4, <2 x i32> %arg6)
+  %tmp183 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp184 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp185 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp186 = call float @llvm.SI.fs.interp(i32 3, i32 5, i32 %arg4, <2 x i32> %arg6)
+  %tmp187 = call float @llvm.SI.fs.interp(i32 0, i32 6, i32 %arg4, <2 x i32> %arg6)
+  %tmp188 = call float @llvm.SI.fs.interp(i32 1, i32 6, i32 %arg4, <2 x i32> %arg6)
+  %tmp189 = call float @llvm.SI.fs.interp(i32 2, i32 6, i32 %arg4, <2 x i32> %arg6)
+  %tmp190 = call float @llvm.SI.fs.interp(i32 3, i32 6, i32 %arg4, <2 x i32> %arg6)
+  %tmp191 = call float @llvm.SI.fs.interp(i32 0, i32 7, i32 %arg4, <2 x i32> %arg6)
+  %tmp192 = call float @llvm.SI.fs.interp(i32 1, i32 7, i32 %arg4, <2 x i32> %arg6)
+  %tmp193 = call float @llvm.SI.fs.interp(i32 2, i32 7, i32 %arg4, <2 x i32> %arg6)
+  %tmp194 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %arg4, <2 x i32> %arg6)
+  %tmp195 = fmul float %arg14, %tmp123
+  %tmp196 = fadd float %tmp195, %tmp124
+  %tmp197 = call float @llvm.AMDGPU.clamp.f32(float %tmp162, float 0.000000e+00, float 1.000000e+00)
+  %tmp198 = call float @llvm.AMDGPU.clamp.f32(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
+  %tmp199 = call float @llvm.AMDGPU.clamp.f32(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
+  %tmp200 = call float @llvm.AMDGPU.clamp.f32(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00)
+  %tmp201 = bitcast float %tmp197 to i32
+  %tmp202 = icmp ne i32 %tmp201, 0
+  %. = select i1 %tmp202, float -1.000000e+00, float 1.000000e+00
+  %tmp203 = fsub float -0.000000e+00, %tmp163
+  %tmp204 = fadd float %tmp43, %tmp203
+  %tmp205 = fsub float -0.000000e+00, %tmp164
+  %tmp206 = fadd float %tmp44, %tmp205
+  %tmp207 = fsub float -0.000000e+00, %tmp165
+  %tmp208 = fadd float %tmp45, %tmp207
+  %tmp209 = fmul float %tmp204, %tmp204
+  %tmp210 = fmul float %tmp206, %tmp206
+  %tmp211 = fadd float %tmp210, %tmp209
+  %tmp212 = fmul float %tmp208, %tmp208
+  %tmp213 = fadd float %tmp211, %tmp212
+  %tmp214 = call float @llvm.amdgcn.rsq.f32(float %tmp213)
+  %tmp215 = fmul float %tmp204, %tmp214
+  %tmp216 = fmul float %tmp206, %tmp214
+  %tmp217 = fmul float %tmp208, %tmp214
+  %tmp218 = fmul float %., %tmp53
+  %tmp219 = fmul float %arg13, %tmp46
+  %tmp220 = fmul float %tmp196, %tmp47
+  %tmp221 = bitcast float %tmp173 to i32
+  %tmp222 = bitcast float %tmp174 to i32
+  %tmp223 = insertelement <2 x i32> undef, i32 %tmp221, i32 0
+  %tmp224 = insertelement <2 x i32> %tmp223, i32 %tmp222, i32 1
+  %tmp132.bc = bitcast <16 x i8> %tmp132 to <4 x i32>
+  %tmp225 = call <4 x float> @llvm.SI.image.sample.v2i32(<2 x i32> %tmp224, <8 x i32> %tmp130, <4 x i32> %tmp132.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp226 = extractelement <4 x float> %tmp225, i32 0
+  %tmp227 = extractelement <4 x float> %tmp225, i32 1
+  %tmp228 = extractelement <4 x float> %tmp225, i32 2
+  %tmp229 = extractelement <4 x float> %tmp225, i32 3
+  %tmp230 = fmul float %tmp226, 0x4012611180000000
+  %tmp231 = fmul float %tmp227, 0x4012611180000000
+  %tmp232 = fmul float %tmp228, 0x4012611180000000
+  %one.sub.a.i = fsub float 1.000000e+00, %tmp26
+  %result.i = fadd float %tmp230, %one.sub.a.i
+  %one.sub.a.i43 = fsub float 1.000000e+00, %tmp26
+  %result.i44 = fadd float %tmp231, %one.sub.a.i43
+  %one.sub.a.i41 = fsub float 1.000000e+00, %tmp26
+  %result.i42 = fadd float %tmp232, %one.sub.a.i41
+  %tmp233 = fmul float %tmp215, %tmp183
+  %tmp234 = fmul float %tmp216, %tmp184
+  %tmp235 = fadd float %tmp234, %tmp233
+  %tmp236 = fmul float %tmp217, %tmp185
+  %tmp237 = fadd float %tmp235, %tmp236
+  %tmp238 = fmul float %tmp215, %tmp186
+  %tmp239 = fmul float %tmp216, %tmp187
+  %tmp240 = fadd float %tmp239, %tmp238
+  %tmp241 = fmul float %tmp217, %tmp188
+  %tmp242 = fadd float %tmp240, %tmp241
+  %tmp243 = fmul float %tmp215, %tmp189
+  %tmp244 = fmul float %tmp216, %tmp190
+  %tmp245 = fadd float %tmp244, %tmp243
+  %tmp246 = fmul float %tmp217, %tmp191
+  %tmp247 = fadd float %tmp245, %tmp246
+  %tmp248 = call float @llvm.AMDGPU.clamp.f32(float %tmp247, float 0.000000e+00, float 1.000000e+00)
+  %tmp249 = fmul float %tmp213, 0x3F5A36E2E0000000
+  %tmp250 = call float @llvm.AMDGPU.clamp.f32(float %tmp249, float 0.000000e+00, float 1.000000e+00)
+  %tmp251 = fsub float -0.000000e+00, %tmp250
+  %tmp252 = fadd float 1.000000e+00, %tmp251
+  %tmp253 = call float @llvm.pow.f32(float %tmp248, float 2.500000e-01)
+  %tmp254 = fmul float %tmp38, %tmp253
+  %tmp255 = fmul float %tmp237, %tmp254
+  %tmp256 = fmul float %tmp242, %tmp254
+  %tmp257 = fmul float %tmp255, %tmp229
+  %tmp258 = fmul float %tmp256, %tmp229
+  %tmp259 = fadd float %tmp248, 0x3EE4F8B580000000
+  %tmp260 = fsub float -0.000000e+00, %tmp248
+  %tmp261 = fadd float 1.000000e+00, %tmp260
+  %tmp262 = fmul float 1.200000e+01, %tmp261
+  %tmp263 = fadd float %tmp262, 4.000000e+00
+  %tmp264 = fsub float -0.000000e+00, %tmp263
+  %tmp265 = fmul float %tmp264, %tmp259
+  %tmp266 = fsub float -0.000000e+00, %tmp263
+  %tmp267 = fmul float %tmp266, %tmp259
+  %tmp268 = fsub float -0.000000e+00, %tmp263
+  %tmp269 = fmul float %tmp268, %tmp259
+  %tmp270 = fdiv float 1.000000e+00, %tmp265
+  %tmp271 = fdiv float 1.000000e+00, %tmp267
+  %tmp272 = fdiv float 1.000000e+00, %tmp269
+  %tmp273 = fmul float %tmp257, %tmp270
+  %tmp274 = fmul float %tmp258, %tmp271
+  %tmp275 = fmul float %tmp259, %tmp272
+  br label %LOOP
+
+LOOP:                                             ; preds = %LOOP, %main_body
+  %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %tmp288, %LOOP ]
+  %temp168.0 = phi float [ %tmp175, %main_body ], [ %tmp284, %LOOP ]
+  %temp169.0 = phi float [ %tmp176, %main_body ], [ %tmp285, %LOOP ]
+  %temp170.0 = phi float [ %tmp252, %main_body ], [ %tmp286, %LOOP ]
+  %tmp276 = bitcast float %temp168.0 to i32
+  %tmp277 = bitcast float %temp169.0 to i32
+  %tmp278 = insertelement <4 x i32> undef, i32 %tmp276, i32 0
+  %tmp279 = insertelement <4 x i32> %tmp278, i32 %tmp277, i32 1
+  %tmp280 = insertelement <4 x i32> %tmp279, i32 0, i32 2
+  %tmp281 = insertelement <4 x i32> %tmp280, i32 undef, i32 3
+  %tmp148.bc = bitcast <16 x i8> %tmp148 to <4 x i32>
+  %tmp282 = call <4 x float> @llvm.SI.image.sample.l.v4i32(<4 x i32> %tmp281, <8 x i32> %tmp146, <4 x i32> %tmp148.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp283 = extractelement <4 x float> %tmp282, i32 3
+  %tmp284 = fadd float %temp168.0, %tmp273
+  %tmp285 = fadd float %temp169.0, %tmp274
+  %tmp286 = fadd float %temp170.0, %tmp275
+  %tmp287 = fsub float -0.000000e+00, %tmp283
+  %tmp288 = fadd float %tmp286, %tmp287
+  %tmp289 = fcmp oge float 0.000000e+00, %tmp288
+  %tmp290 = sext i1 %tmp289 to i32
+  %tmp291 = bitcast i32 %tmp290 to float
+  %tmp292 = bitcast float %tmp291 to i32
+  %tmp293 = icmp ne i32 %tmp292, 0
+  br i1 %tmp293, label %IF189, label %LOOP
 
-; Function Attrs: nounwind readnone
-declare float @llvm.SI.fs.interp(i32, i32, i32, <2 x i32>) #1
+IF189:                                            ; preds = %LOOP
+  %tmp294 = extractelement <4 x float> %tmp282, i32 0
+  %tmp295 = extractelement <4 x float> %tmp282, i32 1
+  %tmp296 = extractelement <4 x float> %tmp282, i32 2
+  %tmp297 = fsub float -0.000000e+00, %tmp288
+  %tmp298 = fadd float %temp144.0, %tmp297
+  %tmp299 = fdiv float 1.000000e+00, %tmp298
+  %tmp300 = fmul float %tmp288, %tmp299
+  %tmp301 = fadd float %tmp300, -1.000000e+00
+  %tmp302 = fmul float %tmp301, %tmp273
+  %tmp303 = fadd float %tmp302, %tmp284
+  %tmp304 = fmul float %tmp301, %tmp274
+  %tmp305 = fadd float %tmp304, %tmp285
+  %tmp306 = fsub float -0.000000e+00, %tmp175
+  %tmp307 = fadd float %tmp303, %tmp306
+  %tmp308 = fsub float -0.000000e+00, %tmp176
+  %tmp309 = fadd float %tmp305, %tmp308
+  %tmp310 = fadd float %tmp175, %tmp307
+  %tmp311 = fadd float %tmp176, %tmp309
+  %tmp312 = fmul float %tmp307, %tmp66
+  %tmp313 = fmul float %tmp309, %tmp67
+  %tmp314 = fmul float %tmp312, %tmp54
+  %tmp315 = fmul float %tmp312, %tmp55
+  %tmp316 = fmul float %tmp313, %tmp56
+  %tmp317 = fadd float %tmp316, %tmp314
+  %tmp318 = fmul float %tmp313, %tmp57
+  %tmp319 = fadd float %tmp318, %tmp315
+  %tmp320 = fadd float %tmp177, %tmp317
+  %tmp321 = fadd float %tmp178, %tmp319
+  %tmp322 = fmul float %tmp312, %tmp58
+  %tmp323 = fmul float %tmp312, %tmp59
+  %tmp324 = fmul float %tmp312, %tmp60
+  %tmp325 = fmul float %tmp312, %tmp61
+  %tmp326 = fmul float %tmp313, %tmp62
+  %tmp327 = fadd float %tmp326, %tmp322
+  %tmp328 = fmul float %tmp313, %tmp63
+  %tmp329 = fadd float %tmp328, %tmp323
+  %tmp330 = fmul float %tmp313, %tmp64
+  %tmp331 = fadd float %tmp330, %tmp324
+  %tmp332 = fmul float %tmp313, %tmp65
+  %tmp333 = fadd float %tmp332, %tmp325
+  %tmp334 = fadd float %tmp167, %tmp327
+  %tmp335 = fadd float %tmp168, %tmp329
+  %tmp336 = fadd float %tmp169, %tmp331
+  %tmp337 = fadd float %tmp170, %tmp333
+  %tmp338 = bitcast float %tmp334 to i32
+  %tmp339 = bitcast float %tmp335 to i32
+  %tmp340 = insertelement <2 x i32> undef, i32 %tmp338, i32 0
+  %tmp341 = insertelement <2 x i32> %tmp340, i32 %tmp339, i32 1
+  %tmp136.bc = bitcast <16 x i8> %tmp136 to <4 x i32>
+  %tmp342 = call <4 x float> @llvm.SI.image.sample.v2i32(<2 x i32> %tmp341, <8 x i32> %tmp134, <4 x i32> %tmp136.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp343 = extractelement <4 x float> %tmp342, i32 0
+  %tmp344 = extractelement <4 x float> %tmp342, i32 1
+  %tmp345 = extractelement <4 x float> %tmp342, i32 2
+  %tmp346 = extractelement <4 x float> %tmp342, i32 3
+  %tmp347 = fmul float %tmp343, %tmp22
+  %tmp348 = fmul float %tmp344, %tmp23
+  %tmp349 = fmul float %tmp345, %tmp24
+  %tmp350 = fmul float %tmp346, %tmp25
+  %tmp351 = fmul float %tmp347, %tmp179
+  %tmp352 = fmul float %tmp348, %tmp180
+  %tmp353 = fmul float %tmp349, %tmp181
+  %tmp354 = fmul float %tmp350, %tmp182
+  %tmp355 = fsub float -0.000000e+00, %tmp346
+  %tmp356 = fadd float 1.000000e+00, %tmp355
+  %tmp357 = fmul float %tmp356, %tmp48
+  %one.sub.a.i37 = fsub float 1.000000e+00, %tmp357
+  %one.sub.ac.i38 = fmul float %one.sub.a.i37, %tmp351
+  %mul.i39 = fmul float %tmp343, %tmp351
+  %result.i40 = fadd float %mul.i39, %one.sub.ac.i38
+  %one.sub.a.i33 = fsub float 1.000000e+00, %tmp357
+  %one.sub.ac.i34 = fmul float %one.sub.a.i33, %tmp352
+  %mul.i35 = fmul float %tmp344, %tmp352
+  %result.i36 = fadd float %mul.i35, %one.sub.ac.i34
+  %one.sub.a.i29 = fsub float 1.000000e+00, %tmp357
+  %one.sub.ac.i30 = fmul float %one.sub.a.i29, %tmp353
+  %mul.i31 = fmul float %tmp345, %tmp353
+  %result.i32 = fadd float %mul.i31, %one.sub.ac.i30
+  %tmp358 = bitcast float %tmp336 to i32
+  %tmp359 = bitcast float %tmp337 to i32
+  %tmp360 = insertelement <2 x i32> undef, i32 %tmp358, i32 0
+  %tmp361 = insertelement <2 x i32> %tmp360, i32 %tmp359, i32 1
+  %tmp152.bc = bitcast <16 x i8> %tmp152 to <4 x i32>
+  %tmp362 = call <4 x float> @llvm.SI.image.sample.v2i32(<2 x i32> %tmp361, <8 x i32> %tmp150, <4 x i32> %tmp152.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp363 = extractelement <4 x float> %tmp362, i32 2
+  %tmp364 = fmul float %result.i40, %result.i
+  %tmp365 = fmul float %result.i36, %result.i44
+  %tmp366 = fmul float %result.i32, %result.i42
+  %tmp367 = fmul float %tmp354, %tmp229
+  %tmp368 = bitcast float %tmp310 to i32
+  %tmp369 = bitcast float %tmp311 to i32
+  %tmp370 = insertelement <2 x i32> undef, i32 %tmp368, i32 0
+  %tmp371 = insertelement <2 x i32> %tmp370, i32 %tmp369, i32 1
+  %tmp140.bc = bitcast <16 x i8> %tmp140 to <4 x i32>
+  %tmp372 = call <4 x float> @llvm.SI.image.sample.v2i32(<2 x i32> %tmp371, <8 x i32> %tmp138, <4 x i32> %tmp140.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp373 = extractelement <4 x float> %tmp372, i32 0
+  %tmp374 = extractelement <4 x float> %tmp372, i32 1
+  %tmp375 = extractelement <4 x float> %tmp372, i32 2
+  %tmp376 = extractelement <4 x float> %tmp372, i32 3
+  %tmp377 = fcmp olt float 0.000000e+00, %tmp375
+  %tmp378 = sext i1 %tmp377 to i32
+  %tmp379 = bitcast i32 %tmp378 to float
+  %tmp380 = bitcast float %tmp379 to i32
+  %tmp381 = icmp ne i32 %tmp380, 0
+  %.224 = select i1 %tmp381, float %tmp374, float %tmp373
+  %.225 = select i1 %tmp381, float %tmp376, float %tmp374
+  %tmp382 = bitcast float %tmp320 to i32
+  %tmp383 = bitcast float %tmp321 to i32
+  %tmp384 = insertelement <2 x i32> undef, i32 %tmp382, i32 0
+  %tmp385 = insertelement <2 x i32> %tmp384, i32 %tmp383, i32 1
+  %tmp144.bc = bitcast <16 x i8> %tmp144 to <4 x i32>
+  %tmp386 = call <4 x float> @llvm.SI.image.sample.v2i32(<2 x i32> %tmp385, <8 x i32> %tmp142, <4 x i32> %tmp144.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp387 = extractelement <4 x float> %tmp386, i32 0
+  %tmp388 = extractelement <4 x float> %tmp386, i32 1
+  %tmp389 = extractelement <4 x float> %tmp386, i32 2
+  %tmp390 = extractelement <4 x float> %tmp386, i32 3
+  %tmp391 = fcmp olt float 0.000000e+00, %tmp389
+  %tmp392 = sext i1 %tmp391 to i32
+  %tmp393 = bitcast i32 %tmp392 to float
+  %tmp394 = bitcast float %tmp393 to i32
+  %tmp395 = icmp ne i32 %tmp394, 0
+  %temp112.1 = select i1 %tmp395, float %tmp388, float %tmp387
+  %temp113.1 = select i1 %tmp395, float %tmp390, float %tmp388
+  %tmp396 = fmul float %.224, 2.000000e+00
+  %tmp397 = fadd float %tmp396, -1.000000e+00
+  %tmp398 = fmul float %.225, 2.000000e+00
+  %tmp399 = fadd float %tmp398, -1.000000e+00
+  %tmp400 = fmul float %temp112.1, 2.000000e+00
+  %tmp401 = fadd float %tmp400, -1.000000e+00
+  %tmp402 = fmul float %temp113.1, 2.000000e+00
+  %tmp403 = fadd float %tmp402, -1.000000e+00
+  %tmp404 = fsub float -0.000000e+00, %tmp397
+  %tmp405 = fmul float %tmp404, %tmp34
+  %tmp406 = fsub float -0.000000e+00, %tmp399
+  %tmp407 = fmul float %tmp406, %tmp34
+  %tmp408 = fsub float -0.000000e+00, %tmp401
+  %tmp409 = fmul float %tmp408, %tmp35
+  %tmp410 = fsub float -0.000000e+00, %tmp403
+  %tmp411 = fmul float %tmp410, %tmp35
+  %tmp412 = fmul float %tmp409, %tmp363
+  %tmp413 = fmul float %tmp411, %tmp363
+  %tmp414 = call float @fabs(float %tmp405)
+  %tmp415 = call float @fabs(float %tmp407)
+  %tmp416 = fsub float -0.000000e+00, %tmp414
+  %tmp417 = fadd float 1.000000e+00, %tmp416
+  %tmp418 = fsub float -0.000000e+00, %tmp415
+  %tmp419 = fadd float 1.000000e+00, %tmp418
+  %tmp420 = fmul float %tmp417, %tmp412
+  %tmp421 = fadd float %tmp420, %tmp405
+  %tmp422 = fmul float %tmp419, %tmp413
+  %tmp423 = fadd float %tmp422, %tmp407
+  %tmp424 = fmul float %tmp421, %tmp421
+  %tmp425 = fmul float %tmp423, %tmp423
+  %tmp426 = fadd float %tmp424, %tmp425
+  %tmp427 = fsub float -0.000000e+00, %tmp426
+  %tmp428 = fadd float 0x3FF00068E0000000, %tmp427
+  %tmp429 = call float @llvm.AMDGPU.clamp.f32(float %tmp428, float 0.000000e+00, float 1.000000e+00)
+  %tmp430 = call float @llvm.amdgcn.rsq.f32(float %tmp429)
+  %tmp431 = fmul float %tmp430, %tmp429
+  %tmp432 = fsub float -0.000000e+00, %tmp429
+  %cmp = fcmp ogt float 0.000000e+00, %tmp432
+  %tmp433 = select i1 %cmp, float %tmp431, float 0.000000e+00
+  %tmp434 = fmul float %tmp183, %tmp421
+  %tmp435 = fmul float %tmp184, %tmp421
+  %tmp436 = fmul float %tmp185, %tmp421
+  %tmp437 = fmul float %tmp186, %tmp423
+  %tmp438 = fadd float %tmp437, %tmp434
+  %tmp439 = fmul float %tmp187, %tmp423
+  %tmp440 = fadd float %tmp439, %tmp435
+  %tmp441 = fmul float %tmp188, %tmp423
+  %tmp442 = fadd float %tmp441, %tmp436
+  %tmp443 = fmul float %tmp189, %tmp433
+  %tmp444 = fadd float %tmp443, %tmp438
+  %tmp445 = fmul float %tmp190, %tmp433
+  %tmp446 = fadd float %tmp445, %tmp440
+  %tmp447 = fmul float %tmp191, %tmp433
+  %tmp448 = fadd float %tmp447, %tmp442
+  %tmp449 = fmul float %tmp444, %tmp444
+  %tmp450 = fmul float %tmp446, %tmp446
+  %tmp451 = fadd float %tmp450, %tmp449
+  %tmp452 = fmul float %tmp448, %tmp448
+  %tmp453 = fadd float %tmp451, %tmp452
+  %tmp454 = call float @llvm.amdgcn.rsq.f32(float %tmp453)
+  %tmp455 = fmul float %tmp444, %tmp454
+  %tmp456 = fmul float %tmp446, %tmp454
+  %tmp457 = fmul float %tmp448, %tmp454
+  %tmp458 = fcmp olt float 0.000000e+00, %tmp218
+  %tmp459 = sext i1 %tmp458 to i32
+  %tmp460 = bitcast i32 %tmp459 to float
+  %tmp461 = bitcast float %tmp460 to i32
+  %tmp462 = icmp ne i32 %tmp461, 0
+  br i1 %tmp462, label %IF198, label %ENDIF197
+
+IF198:                                            ; preds = %IF189
+  %tmp463 = fsub float -0.000000e+00, %tmp455
+  %tmp464 = fsub float -0.000000e+00, %tmp456
+  %tmp465 = fsub float -0.000000e+00, %tmp457
+  br label %ENDIF197
+
+ENDIF197:                                         ; preds = %IF198, %IF189
+  %temp14.0 = phi float [ %tmp465, %IF198 ], [ %tmp457, %IF189 ]
+  %temp13.0 = phi float [ %tmp464, %IF198 ], [ %tmp456, %IF189 ]
+  %temp12.0 = phi float [ %tmp463, %IF198 ], [ %tmp455, %IF189 ]
+  %tmp466 = bitcast float %tmp219 to i32
+  %tmp467 = bitcast float %tmp220 to i32
+  %tmp468 = insertelement <2 x i32> undef, i32 %tmp466, i32 0
+  %tmp469 = insertelement <2 x i32> %tmp468, i32 %tmp467, i32 1
+  %tmp160.bc = bitcast <16 x i8> %tmp160 to <4 x i32>
+  %tmp470 = call <4 x float> @llvm.SI.image.sample.v2i32(<2 x i32> %tmp469, <8 x i32> %tmp158, <4 x i32> %tmp160.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp471 = extractelement <4 x float> %tmp470, i32 0
+  %tmp472 = extractelement <4 x float> %tmp470, i32 1
+  %tmp473 = extractelement <4 x float> %tmp470, i32 2
+  %tmp474 = extractelement <4 x float> %tmp470, i32 3
+  %tmp475 = fmul float %tmp471, %tmp39
+  %tmp476 = fadd float %tmp475, %tmp40
+  %tmp477 = fmul float %tmp472, %tmp39
+  %tmp478 = fadd float %tmp477, %tmp40
+  %tmp479 = fmul float %tmp473, %tmp39
+  %tmp480 = fadd float %tmp479, %tmp40
+  %tmp481 = fmul float %tmp474, %tmp41
+  %tmp482 = fadd float %tmp481, %tmp42
+  %tmp483 = bitcast float %tmp171 to i32
+  %tmp484 = bitcast float %tmp172 to i32
+  %tmp485 = insertelement <2 x i32> undef, i32 %tmp483, i32 0
+  %tmp486 = insertelement <2 x i32> %tmp485, i32 %tmp484, i32 1
+  %tmp156.bc = bitcast <16 x i8> %tmp156 to <4 x i32>
+  %tmp487 = call <4 x float> @llvm.SI.image.sample.v2i32(<2 x i32> %tmp486, <8 x i32> %tmp154, <4 x i32> %tmp156.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp488 = extractelement <4 x float> %tmp487, i32 0
+  %tmp489 = extractelement <4 x float> %tmp487, i32 1
+  %tmp490 = extractelement <4 x float> %tmp487, i32 2
+  %tmp491 = extractelement <4 x float> %tmp487, i32 3
+  %tmp492 = fmul float %tmp491, 3.200000e+01
+  %tmp493 = fadd float %tmp492, -1.600000e+01
+  %tmp494 = call float @llvm.exp2.f32(float %tmp493)
+  %tmp495 = fmul float %tmp488, %tmp494
+  %tmp496 = fmul float %tmp489, %tmp494
+  %tmp497 = fmul float %tmp490, %tmp494
+  %tmp498 = fmul float %tmp27, %tmp495
+  %tmp499 = fadd float %tmp498, %tmp192
+  %tmp500 = fmul float %tmp28, %tmp496
+  %tmp501 = fadd float %tmp500, %tmp193
+  %tmp502 = fmul float %tmp29, %tmp497
+  %tmp503 = fadd float %tmp502, %tmp194
+  %tmp504 = fmul float %tmp499, %tmp482
+  %tmp505 = fmul float %tmp501, %tmp482
+  %tmp506 = fmul float %tmp503, %tmp482
+  %tmp507 = fmul float %tmp482, 5.000000e-01
+  %tmp508 = fadd float %tmp507, 5.000000e-01
+  %tmp509 = fmul float %tmp476, %tmp508
+  %tmp510 = fadd float %tmp509, %tmp504
+  %tmp511 = fmul float %tmp478, %tmp508
+  %tmp512 = fadd float %tmp511, %tmp505
+  %tmp513 = fmul float %tmp480, %tmp508
+  %tmp514 = fadd float %tmp513, %tmp506
+  %tmp515 = fmul float %tmp510, %tmp364
+  %tmp516 = fmul float %tmp512, %tmp365
+  %tmp517 = fmul float %tmp514, %tmp366
+  %tmp518 = fmul float %tmp421, 0x3FDB272440000000
+  %tmp519 = fmul float %tmp423, 0xBFDB272440000000
+  %tmp520 = fadd float %tmp519, %tmp518
+  %tmp521 = fmul float %tmp433, 0x3FE99999A0000000
+  %tmp522 = fadd float %tmp520, %tmp521
+  %tmp523 = fmul float %tmp522, 5.000000e-01
+  %tmp524 = fadd float %tmp523, 0x3FE3333340000000
+  %tmp525 = fmul float %tmp524, %tmp524
+  %tmp526 = fmul float %tmp515, %tmp525
+  %tmp527 = fmul float %tmp516, %tmp525
+  %tmp528 = fmul float %tmp517, %tmp525
+  %tmp529 = fsub float -0.000000e+00, %tmp71
+  %tmp530 = fsub float -0.000000e+00, %tmp72
+  %tmp531 = fsub float -0.000000e+00, %tmp73
+  %tmp532 = fmul float %temp12.0, %tmp529
+  %tmp533 = fmul float %temp13.0, %tmp530
+  %tmp534 = fadd float %tmp533, %tmp532
+  %tmp535 = fmul float %temp14.0, %tmp531
+  %tmp536 = fadd float %tmp534, %tmp535
+  %tmp537 = call float @llvm.AMDGPU.clamp.f32(float %tmp536, float 0.000000e+00, float 1.000000e+00)
+  %tmp538 = fmul float %tmp364, %tmp537
+  %tmp539 = fmul float %tmp365, %tmp537
+  %tmp540 = fmul float %tmp366, %tmp537
+  %tmp541 = fmul float %tmp538, %tmp68
+  %tmp542 = fmul float %tmp539, %tmp69
+  %tmp543 = fmul float %tmp540, %tmp70
+  %tmp544 = fsub float -0.000000e+00, %tmp163
+  %tmp545 = fadd float %tmp96, %tmp544
+  %tmp546 = fsub float -0.000000e+00, %tmp164
+  %tmp547 = fadd float %tmp97, %tmp546
+  %tmp548 = fsub float -0.000000e+00, %tmp165
+  %tmp549 = fadd float %tmp98, %tmp548
+  %tmp550 = fmul float %tmp545, %tmp545
+  %tmp551 = fmul float %tmp547, %tmp547
+  %tmp552 = fadd float %tmp551, %tmp550
+  %tmp553 = fmul float %tmp549, %tmp549
+  %tmp554 = fadd float %tmp552, %tmp553
+  %tmp555 = call float @llvm.amdgcn.rsq.f32(float %tmp554)
+  %tmp556 = fmul float %tmp555, %tmp554
+  %tmp557 = fsub float -0.000000e+00, %tmp554
+  %cmp1 = fcmp ogt float %tmp557, 0.000000e+00
+  %tmp558 = select i1 %cmp1, float %tmp556, float 0.000000e+00
+  %tmp559 = fsub float -0.000000e+00, %tmp83
+  %tmp560 = fadd float %tmp558, %tmp559
+  %tmp561 = fsub float -0.000000e+00, %tmp82
+  %tmp562 = fadd float %tmp558, %tmp561
+  %tmp563 = fsub float -0.000000e+00, %tmp81
+  %tmp564 = fadd float %tmp558, %tmp563
+  %tmp565 = fsub float -0.000000e+00, %tmp83
+  %tmp566 = fadd float %tmp82, %tmp565
+  %tmp567 = fsub float -0.000000e+00, %tmp82
+  %tmp568 = fadd float %tmp81, %tmp567
+  %tmp569 = fsub float -0.000000e+00, %tmp81
+  %tmp570 = fadd float %tmp80, %tmp569
+  %tmp571 = fdiv float 1.000000e+00, %tmp566
+  %tmp572 = fdiv float 1.000000e+00, %tmp568
+  %tmp573 = fdiv float 1.000000e+00, %tmp570
+  %tmp574 = fmul float %tmp560, %tmp571
+  %tmp575 = fmul float %tmp562, %tmp572
+  %tmp576 = fmul float %tmp564, %tmp573
+  %tmp577 = fcmp olt float %tmp558, %tmp82
+  %tmp578 = sext i1 %tmp577 to i32
+  %tmp579 = bitcast i32 %tmp578 to float
+  %tmp580 = bitcast float %tmp579 to i32
+  %tmp581 = icmp ne i32 %tmp580, 0
+  br i1 %tmp581, label %ENDIF200, label %ELSE202
+
+ELSE202:                                          ; preds = %ENDIF197
+  %tmp582 = fcmp olt float %tmp558, %tmp81
+  %tmp583 = sext i1 %tmp582 to i32
+  %tmp584 = bitcast i32 %tmp583 to float
+  %tmp585 = bitcast float %tmp584 to i32
+  %tmp586 = icmp ne i32 %tmp585, 0
+  br i1 %tmp586, label %ENDIF200, label %ELSE205
+
+ENDIF200:                                         ; preds = %ELSE205, %ELSE202, %ENDIF197
+  %temp80.0 = phi float [ %tmp574, %ENDIF197 ], [ %.226, %ELSE205 ], [ %tmp575, %ELSE202 ]
+  %temp88.0 = phi float [ %tmp121, %ENDIF197 ], [ %.227, %ELSE205 ], [ %tmp119, %ELSE202 ]
+  %temp89.0 = phi float [ %tmp122, %ENDIF197 ], [ %.228, %ELSE205 ], [ %tmp120, %ELSE202 ]
+  %temp90.0 = phi float [ %tmp119, %ENDIF197 ], [ %tmp115, %ELSE205 ], [ %tmp117, %ELSE202 ]
+  %temp91.0 = phi float [ %tmp120, %ENDIF197 ], [ %tmp116, %ELSE205 ], [ %tmp118, %ELSE202 ]
+  %tmp587 = fcmp olt float %tmp558, %tmp82
+  %tmp588 = sext i1 %tmp587 to i32
+  %tmp589 = bitcast i32 %tmp588 to float
+  %tmp590 = bitcast float %tmp589 to i32
+  %tmp591 = icmp ne i32 %tmp590, 0
+  br i1 %tmp591, label %ENDIF209, label %ELSE211
+
+ELSE205:                                          ; preds = %ELSE202
+  %tmp592 = fcmp olt float %tmp558, %tmp80
+  %tmp593 = sext i1 %tmp592 to i32
+  %tmp594 = bitcast i32 %tmp593 to float
+  %tmp595 = bitcast float %tmp594 to i32
+  %tmp596 = icmp ne i32 %tmp595, 0
+  %.226 = select i1 %tmp596, float %tmp576, float 1.000000e+00
+  %.227 = select i1 %tmp596, float %tmp117, float %tmp115
+  %.228 = select i1 %tmp596, float %tmp118, float %tmp116
+  br label %ENDIF200
+
+ELSE211:                                          ; preds = %ENDIF200
+  %tmp597 = fcmp olt float %tmp558, %tmp81
+  %tmp598 = sext i1 %tmp597 to i32
+  %tmp599 = bitcast i32 %tmp598 to float
+  %tmp600 = bitcast float %tmp599 to i32
+  %tmp601 = icmp ne i32 %tmp600, 0
+  br i1 %tmp601, label %ENDIF209, label %ELSE214
+
+ENDIF209:                                         ; preds = %ELSE214, %ELSE211, %ENDIF200
+  %temp52.0 = phi float [ %tmp107, %ENDIF200 ], [ %tmp99, %ELSE214 ], [ %tmp103, %ELSE211 ]
+  %temp53.0 = phi float [ %tmp108, %ENDIF200 ], [ %tmp100, %ELSE214 ], [ %tmp104, %ELSE211 ]
+  %temp54.0 = phi float [ %tmp109, %ENDIF200 ], [ %tmp101, %ELSE214 ], [ %tmp105, %ELSE211 ]
+  %temp55.0 = phi float [ %tmp110, %ENDIF200 ], [ %tmp102, %ELSE214 ], [ %tmp106, %ELSE211 ]
+  %temp68.0 = phi float [ %tmp111, %ENDIF200 ], [ %.230, %ELSE214 ], [ %tmp107, %ELSE211 ]
+  %temp69.0 = phi float [ %tmp112, %ENDIF200 ], [ %.231, %ELSE214 ], [ %tmp108, %ELSE211 ]
+  %temp70.0 = phi float [ %tmp113, %ENDIF200 ], [ %.232, %ELSE214 ], [ %tmp109, %ELSE211 ]
+  %temp71.0 = phi float [ %tmp114, %ENDIF200 ], [ %.233, %ELSE214 ], [ %tmp110, %ELSE211 ]
+  %tmp602 = fmul float %tmp163, %tmp84
+  %tmp603 = fmul float %tmp164, %tmp85
+  %tmp604 = fadd float %tmp602, %tmp603
+  %tmp605 = fmul float %tmp165, %tmp86
+  %tmp606 = fadd float %tmp604, %tmp605
+  %tmp607 = fmul float %tmp166, %tmp87
+  %tmp608 = fadd float %tmp606, %tmp607
+  %tmp609 = fmul float %tmp163, %tmp88
+  %tmp610 = fmul float %tmp164, %tmp89
+  %tmp611 = fadd float %tmp609, %tmp610
+  %tmp612 = fmul float %tmp165, %tmp90
+  %tmp613 = fadd float %tmp611, %tmp612
+  %tmp614 = fmul float %tmp166, %tmp91
+  %tmp615 = fadd float %tmp613, %tmp614
+  %tmp616 = fmul float %tmp163, %tmp92
+  %tmp617 = fmul float %tmp164, %tmp93
+  %tmp618 = fadd float %tmp616, %tmp617
+  %tmp619 = fmul float %tmp165, %tmp94
+  %tmp620 = fadd float %tmp618, %tmp619
+  %tmp621 = fmul float %tmp166, %tmp95
+  %tmp622 = fadd float %tmp620, %tmp621
+  %tmp623 = fsub float -0.000000e+00, %tmp77
+  %tmp624 = fadd float 1.000000e+00, %tmp623
+  %tmp625 = call float @fabs(float %tmp608)
+  %tmp626 = call float @fabs(float %tmp615)
+  %tmp627 = fcmp oge float %tmp624, %tmp625
+  %tmp628 = sext i1 %tmp627 to i32
+  %tmp629 = bitcast i32 %tmp628 to float
+  %tmp630 = bitcast float %tmp629 to i32
+  %tmp631 = and i32 %tmp630, 1065353216
+  %tmp632 = bitcast i32 %tmp631 to float
+  %tmp633 = fcmp oge float %tmp624, %tmp626
+  %tmp634 = sext i1 %tmp633 to i32
+  %tmp635 = bitcast i32 %tmp634 to float
+  %tmp636 = bitcast float %tmp635 to i32
+  %tmp637 = and i32 %tmp636, 1065353216
+  %tmp638 = bitcast i32 %tmp637 to float
+  %tmp639 = fmul float %tmp632, %tmp638
+  %tmp640 = fmul float %tmp622, %tmp639
+  %tmp641 = fmul float %tmp608, %temp68.0
+  %tmp642 = fadd float %tmp641, %temp70.0
+  %tmp643 = fmul float %tmp615, %temp69.0
+  %tmp644 = fadd float %tmp643, %temp71.0
+  %tmp645 = fmul float %tmp608, %temp52.0
+  %tmp646 = fadd float %tmp645, %temp54.0
+  %tmp647 = fmul float %tmp615, %temp53.0
+  %tmp648 = fadd float %tmp647, %temp55.0
+  %tmp649 = fadd float %temp80.0, -1.000000e+00
+  %tmp650 = fmul float %tmp649, %tmp76
+  %tmp651 = fadd float %tmp650, 1.000000e+00
+  %tmp652 = call float @llvm.AMDGPU.clamp.f32(float %tmp651, float 0.000000e+00, float 1.000000e+00)
+  %tmp653 = bitcast float %tmp642 to i32
+  %tmp654 = bitcast float %tmp644 to i32
+  %tmp655 = bitcast float 0.000000e+00 to i32
+  %tmp656 = insertelement <4 x i32> undef, i32 %tmp653, i32 0
+  %tmp657 = insertelement <4 x i32> %tmp656, i32 %tmp654, i32 1
+  %tmp658 = insertelement <4 x i32> %tmp657, i32 %tmp655, i32 2
+  %tmp659 = insertelement <4 x i32> %tmp658, i32 undef, i32 3
+  %tmp128.bc = bitcast <16 x i8> %tmp128 to <4 x i32>
+  %tmp660 = call <4 x float> @llvm.SI.image.sample.l.v4i32(<4 x i32> %tmp659, <8 x i32> %tmp126, <4 x i32> %tmp128.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp661 = extractelement <4 x float> %tmp660, i32 0
+  %tmp662 = extractelement <4 x float> %tmp660, i32 1
+  %tmp663 = bitcast float %tmp646 to i32
+  %tmp664 = bitcast float %tmp648 to i32
+  %tmp665 = bitcast float 0.000000e+00 to i32
+  %tmp666 = insertelement <4 x i32> undef, i32 %tmp663, i32 0
+  %tmp667 = insertelement <4 x i32> %tmp666, i32 %tmp664, i32 1
+  %tmp668 = insertelement <4 x i32> %tmp667, i32 %tmp665, i32 2
+  %tmp669 = insertelement <4 x i32> %tmp668, i32 undef, i32 3
+  %tmp670 = call <4 x float> @llvm.SI.image.sample.l.v4i32(<4 x i32> %tmp669, <8 x i32> %tmp126, <4 x i32> %tmp128.bc, i32 15, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0, i32 0)
+  %tmp671 = extractelement <4 x float> %tmp670, i32 0
+  %tmp672 = extractelement <4 x float> %tmp670, i32 1
+  %tmp673 = fsub float -0.000000e+00, %tmp662
+  %tmp674 = fadd float 1.000000e+00, %tmp673
+  %tmp675 = fsub float -0.000000e+00, %tmp672
+  %tmp676 = fadd float 1.000000e+00, %tmp675
+  %tmp677 = fmul float %tmp674, 2.500000e-01
+  %tmp678 = fmul float %tmp676, 2.500000e-01
+  %tmp679 = fsub float -0.000000e+00, %tmp677
+  %tmp680 = fadd float %tmp661, %tmp679
+  %tmp681 = fsub float -0.000000e+00, %tmp678
+  %tmp682 = fadd float %tmp671, %tmp681
+  %tmp683 = fmul float %tmp640, %temp88.0
+  %tmp684 = fadd float %tmp683, %temp89.0
+  %tmp685 = fmul float %tmp640, %temp90.0
+  %tmp686 = fadd float %tmp685, %temp91.0
+  %tmp687 = call float @llvm.AMDGPU.clamp.f32(float %tmp684, float 0.000000e+00, float 1.000000e+00)
+  %tmp688 = call float @llvm.AMDGPU.clamp.f32(float %tmp686, float 0.000000e+00, float 1.000000e+00)
+  %tmp689 = fsub float -0.000000e+00, %tmp687
+  %tmp690 = fadd float %tmp661, %tmp689
+  %tmp691 = fsub float -0.000000e+00, %tmp688
+  %tmp692 = fadd float %tmp671, %tmp691
+  %tmp693 = fmul float %tmp661, %tmp661
+  %tmp694 = fmul float %tmp671, %tmp671
+  %tmp695 = fsub float -0.000000e+00, %tmp693
+  %tmp696 = fadd float %tmp680, %tmp695
+  %tmp697 = fsub float -0.000000e+00, %tmp694
+  %tmp698 = fadd float %tmp682, %tmp697
+  %tmp699 = fcmp uge float %tmp696, %tmp74
+  %tmp700 = select i1 %tmp699, float %tmp696, float %tmp74
+  %tmp701 = fcmp uge float %tmp698, %tmp74
+  %tmp702 = select i1 %tmp701, float %tmp698, float %tmp74
+  %tmp703 = fmul float %tmp690, %tmp690
+  %tmp704 = fadd float %tmp703, %tmp700
+  %tmp705 = fmul float %tmp692, %tmp692
+  %tmp706 = fadd float %tmp705, %tmp702
+  %tmp707 = fdiv float 1.000000e+00, %tmp704
+  %tmp708 = fdiv float 1.000000e+00, %tmp706
+  %tmp709 = fmul float %tmp700, %tmp707
+  %tmp710 = fmul float %tmp702, %tmp708
+  %tmp711 = fcmp oge float %tmp690, 0.000000e+00
+  %tmp712 = sext i1 %tmp711 to i32
+  %tmp713 = bitcast i32 %tmp712 to float
+  %tmp714 = bitcast float %tmp713 to i32
+  %tmp715 = icmp ne i32 %tmp714, 0
+  %.229 = select i1 %tmp715, float 1.000000e+00, float %tmp709
+  %tmp716 = fcmp oge float %tmp692, 0.000000e+00
+  %tmp717 = sext i1 %tmp716 to i32
+  %tmp718 = bitcast i32 %tmp717 to float
+  %tmp719 = bitcast float %tmp718 to i32
+  %tmp720 = icmp ne i32 %tmp719, 0
+  %temp28.0 = select i1 %tmp720, float 1.000000e+00, float %tmp710
+  %one.sub.a.i25 = fsub float 1.000000e+00, %tmp652
+  %one.sub.ac.i26 = fmul float %one.sub.a.i25, %.229
+  %mul.i27 = fmul float %temp28.0, %.229
+  %result.i28 = fadd float %mul.i27, %one.sub.ac.i26
+  %tmp721 = call float @llvm.pow.f32(float %result.i28, float %tmp75)
+  %tmp722 = fmul float %tmp721, %tmp78
+  %tmp723 = fadd float %tmp722, %tmp79
+  %tmp724 = call float @llvm.AMDGPU.clamp.f32(float %tmp723, float 0.000000e+00, float 1.000000e+00)
+  %tmp725 = fmul float %tmp724, %tmp724
+  %tmp726 = fmul float 2.000000e+00, %tmp724
+  %tmp727 = fsub float -0.000000e+00, %tmp726
+  %tmp728 = fadd float 3.000000e+00, %tmp727
+  %tmp729 = fmul float %tmp725, %tmp728
+  %tmp730 = fmul float %tmp541, %tmp729
+  %tmp731 = fmul float %tmp542, %tmp729
+  %tmp732 = fmul float %tmp543, %tmp729
+  %tmp733 = fmul float %tmp730, %tmp508
+  %tmp734 = fadd float %tmp733, %tmp526
+  %tmp735 = fmul float %tmp731, %tmp508
+  %tmp736 = fadd float %tmp735, %tmp527
+  %tmp737 = fmul float %tmp732, %tmp508
+  %tmp738 = fadd float %tmp737, %tmp528
+  %one.sub.a.i23 = fsub float 1.000000e+00, %tmp229
+  %result.i24 = fadd float %tmp283, %one.sub.a.i23
+  %one.sub.a.i21 = fsub float 1.000000e+00, %tmp36
+  %result.i22 = fadd float %tmp294, %one.sub.a.i21
+  %one.sub.a.i19 = fsub float 1.000000e+00, %tmp36
+  %result.i20 = fadd float %tmp295, %one.sub.a.i19
+  %one.sub.a.i17 = fsub float 1.000000e+00, %tmp36
+  %result.i18 = fadd float %tmp296, %one.sub.a.i17
+  %one.sub.a.i15 = fsub float 1.000000e+00, %tmp37
+  %result.i16 = fadd float %result.i24, %one.sub.a.i15
+  %tmp739 = fmul float %result.i22, %result.i16
+  %tmp740 = fmul float %result.i20, %result.i16
+  %tmp741 = fmul float %result.i18, %result.i16
+  %tmp742 = fmul float %tmp734, %tmp739
+  %tmp743 = fmul float %tmp736, %tmp740
+  %tmp744 = fmul float %tmp738, %tmp741
+  %tmp745 = fmul float %temp12.0, %tmp215
+  %tmp746 = fmul float %temp13.0, %tmp216
+  %tmp747 = fadd float %tmp746, %tmp745
+  %tmp748 = fmul float %temp14.0, %tmp217
+  %tmp749 = fadd float %tmp747, %tmp748
+  %tmp750 = call float @fabs(float %tmp749)
+  %tmp751 = fmul float %tmp750, %tmp750
+  %tmp752 = fmul float %tmp751, %tmp49
+  %tmp753 = fadd float %tmp752, %tmp50
+  %tmp754 = call float @llvm.AMDGPU.clamp.f32(float %tmp753, float 0.000000e+00, float 1.000000e+00)
+  %tmp755 = fsub float -0.000000e+00, %tmp754
+  %tmp756 = fadd float 1.000000e+00, %tmp755
+  %tmp757 = fmul float %tmp32, %tmp756
+  %tmp758 = fmul float %tmp32, %tmp756
+  %tmp759 = fmul float %tmp32, %tmp756
+  %tmp760 = fmul float %tmp33, %tmp756
+  %one.sub.a.i11 = fsub float 1.000000e+00, %tmp757
+  %one.sub.ac.i12 = fmul float %one.sub.a.i11, %tmp742
+  %mul.i13 = fmul float %tmp30, %tmp742
+  %result.i14 = fadd float %mul.i13, %one.sub.ac.i12
+  %one.sub.a.i7 = fsub float 1.000000e+00, %tmp758
+  %one.sub.ac.i8 = fmul float %one.sub.a.i7, %tmp743
+  %mul.i9 = fmul float %tmp30, %tmp743
+  %result.i10 = fadd float %mul.i9, %one.sub.ac.i8
+  %one.sub.a.i3 = fsub float 1.000000e+00, %tmp759
+  %one.sub.ac.i4 = fmul float %one.sub.a.i3, %tmp744
+  %mul.i5 = fmul float %tmp30, %tmp744
+  %result.i6 = fadd float %mul.i5, %one.sub.ac.i4
+  %one.sub.a.i1 = fsub float 1.000000e+00, %tmp760
+  %one.sub.ac.i = fmul float %one.sub.a.i1, %tmp367
+  %mul.i = fmul float %tmp31, %tmp367
+  %result.i2 = fadd float %mul.i, %one.sub.ac.i
+  %tmp761 = fcmp uge float %result.i14, 0x3E6FFFFE60000000
+  %tmp762 = select i1 %tmp761, float %result.i14, float 0x3E6FFFFE60000000
+  %tmp763 = fcmp uge float %result.i10, 0x3E6FFFFE60000000
+  %tmp764 = select i1 %tmp763, float %result.i10, float 0x3E6FFFFE60000000
+  %tmp765 = fcmp uge float %result.i6, 0x3E6FFFFE60000000
+  %tmp766 = select i1 %tmp765, float %result.i6, float 0x3E6FFFFE60000000
+  %tmp767 = fcmp uge float %tmp762, 6.550400e+04
+  %tmp768 = select i1 %tmp767, float 6.550400e+04, float %tmp762
+  %tmp769 = fcmp uge float %tmp764, 6.550400e+04
+  %tmp770 = select i1 %tmp769, float 6.550400e+04, float %tmp764
+  %tmp771 = fcmp uge float %tmp766, 6.550400e+04
+  %tmp772 = select i1 %tmp771, float 6.550400e+04, float %tmp766
+  %tmp773 = fmul float %result.i2, %tmp51
+  %tmp774 = fadd float %tmp773, %tmp52
+  %tmp775 = call float @llvm.AMDGPU.clamp.f32(float %tmp774, float 0.000000e+00, float 1.000000e+00)
+  %tmp776 = call i32 @llvm.SI.packf16(float %tmp768, float %tmp770)
+  %tmp777 = bitcast i32 %tmp776 to float
+  %tmp778 = call i32 @llvm.SI.packf16(float %tmp772, float %tmp775)
+  %tmp779 = bitcast i32 %tmp778 to float
+  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %tmp777, float %tmp779, float %tmp777, float %tmp779)
+  ret void
+
+ELSE214:                                          ; preds = %ELSE211
+  %tmp780 = fcmp olt float %tmp558, %tmp80
+  %tmp781 = sext i1 %tmp780 to i32
+  %tmp782 = bitcast i32 %tmp781 to float
+  %tmp783 = bitcast float %tmp782 to i32
+  %tmp784 = icmp ne i32 %tmp783, 0
+  %.230 = select i1 %tmp784, float %tmp103, float %tmp99
+  %.231 = select i1 %tmp784, float %tmp104, float %tmp100
+  %.232 = select i1 %tmp784, float %tmp105, float %tmp101
+  %.233 = select i1 %tmp784, float %tmp106, float %tmp102
+  br label %ENDIF209
+}
 
 ; Function Attrs: readnone
-declare i32 @llvm.SI.tid() #2
-
-; Function Attrs: readonly
-declare float @ceil(float) #3
-
-; Function Attrs: readnone
-declare float @llvm.AMDGPU.rsq.f32(float) #2
+declare float @llvm.AMDGPU.clamp.f32(float, float, float) #1
 
 ; Function Attrs: nounwind readnone
-declare <4 x float> @llvm.SI.sampled.v8i32(<8 x i32>, <32 x i8>, <16 x i8>, i32) #1
+declare <4 x float> @llvm.SI.image.sample.v2i32(<2 x i32>, <8 x i32>, <4 x i32>, i32, i32, i32, i32, i32, i32, i32, i32) #2
+
+; Function Attrs: nounwind readnone
+declare <4 x float> @llvm.SI.image.sample.l.v4i32(<4 x i32>, <8 x i32>, <4 x i32>, i32, i32, i32, i32, i32, i32, i32, i32) #2
+
 
-; Function Attrs: readnone
-declare <4 x float> @llvm.AMDGPU.cube(<4 x float>) #2
+declare float @llvm.exp2.f32(float) #2
+
+; Function Attrs: nounwind readnone
+declare float @llvm.SI.load.const(<16 x i8>, i32) #2
+
+; Function Attrs: nounwind readnone
+declare float @llvm.SI.fs.interp(i32, i32, i32, <2 x i32>) #2
 
 ; Function Attrs: readnone
-declare float @fabs(float) #2
+declare i32 @llvm.SI.tid() #1
+
+; Function Attrs: nounwind readonly
+declare float @ceil(float) #3
+
+; Function Attrs: nounwind readnone
+declare float @llvm.amdgcn.rsq.f32(float) #2
 
 ; Function Attrs: nounwind readnone
-declare <4 x float> @llvm.SI.sample.v4i32(<4 x i32>, <32 x i8>, <16 x i8>, i32) #1
+declare <4 x float> @llvm.SI.image.sample.d.v8i32(<8 x i32>, <8 x i32>, <4 x i32>, i32, i32, i32, i32, i32, i32, i32, i32) #2
 
-; Function Attrs: nounwind readonly
-declare float @llvm.pow.f32(float, float) #4
+; Function Attrs: readnone
+declare <4 x float> @llvm.AMDGPU.cube(<4 x float>) #1
+
+; Function Attrs: readnone
+declare float @fabs(float) #1
 
 ; Function Attrs: nounwind readnone
-declare i32 @llvm.SI.packf16(float, float) #1
+declare <4 x float> @llvm.SI.image.sample.v4i32(<4 x i32>, <8 x i32>, <4 x i32>, i32, i32, i32, i32, i32, i32, i32, i32) #2
+
+
+; Function Attrs: nounwind readnone
+declare float @llvm.pow.f32(float, float) #2
+
+; Function Attrs: nounwind readnone
+declare i32 @llvm.SI.packf16(float, float) #2
 
 declare void @llvm.SI.export(i32, i32, i32, i32, i32, float, float, float, float)
 
 attributes #0 = { "ShaderType"="0" }
-attributes #1 = { nounwind readnone }
-attributes #2 = { readnone }
-attributes #3 = { readonly }
-attributes #4 = { nounwind readonly }
-
-!0 = !{!"const", null, i32 1}
-
-; CHECK-LABEL: {{^}}main1:
-; CHECK: s_endpgm
-define void @main1([17 x <16 x i8>] addrspace(2)* byval, [32 x <16 x i8>] addrspace(2)* byval, [16 x <32 x i8>] addrspace(2)* byval, float inreg, i32 inreg, <2 x i32>, <2 x i32>, <2 x i32>, <3 x i32>, <2 x i32>, <2 x i32>, <2 x i32>, float, float, float, float, float, float, float, float, float) #0 {
-main_body:
-  %21 = getelementptr [17 x <16 x i8>], [17 x <16 x i8>] addrspace(2)* %0, i64 0, i32 0
-  %22 = load <16 x i8>, <16 x i8> addrspace(2)* %21, !tbaa !0
-  %23 = call float @llvm.SI.load.const(<16 x i8> %22, i32 0)
-  %24 = call float @llvm.SI.load.const(<16 x i8> %22, i32 4)
-  %25 = call float @llvm.SI.load.const(<16 x i8> %22, i32 8)
-  %26 = call float @llvm.SI.load.const(<16 x i8> %22, i32 12)
-  %27 = call float @llvm.SI.load.const(<16 x i8> %22, i32 28)
-  %28 = call float @llvm.SI.load.const(<16 x i8> %22, i32 48)
-  %29 = call float @llvm.SI.load.const(<16 x i8> %22, i32 52)
-  %30 = call float @llvm.SI.load.const(<16 x i8> %22, i32 56)
-  %31 = call float @llvm.SI.load.const(<16 x i8> %22, i32 64)
-  %32 = call float @llvm.SI.load.const(<16 x i8> %22, i32 68)
-  %33 = call float @llvm.SI.load.const(<16 x i8> %22, i32 72)
-  %34 = call float @llvm.SI.load.const(<16 x i8> %22, i32 76)
-  %35 = call float @llvm.SI.load.const(<16 x i8> %22, i32 128)
-  %36 = call float @llvm.SI.load.const(<16 x i8> %22, i32 132)
-  %37 = call float @llvm.SI.load.const(<16 x i8> %22, i32 144)
-  %38 = call float @llvm.SI.load.const(<16 x i8> %22, i32 148)
-  %39 = call float @llvm.SI.load.const(<16 x i8> %22, i32 152)
-  %40 = call float @llvm.SI.load.const(<16 x i8> %22, i32 160)
-  %41 = call float @llvm.SI.load.const(<16 x i8> %22, i32 164)
-  %42 = call float @llvm.SI.load.const(<16 x i8> %22, i32 168)
-  %43 = call float @llvm.SI.load.const(<16 x i8> %22, i32 172)
-  %44 = call float @llvm.SI.load.const(<16 x i8> %22, i32 176)
-  %45 = call float @llvm.SI.load.const(<16 x i8> %22, i32 180)
-  %46 = call float @llvm.SI.load.const(<16 x i8> %22, i32 184)
-  %47 = call float @llvm.SI.load.const(<16 x i8> %22, i32 192)
-  %48 = call float @llvm.SI.load.const(<16 x i8> %22, i32 196)
-  %49 = call float @llvm.SI.load.const(<16 x i8> %22, i32 200)
-  %50 = call float @llvm.SI.load.const(<16 x i8> %22, i32 208)
-  %51 = call float @llvm.SI.load.const(<16 x i8> %22, i32 212)
-  %52 = call float @llvm.SI.load.const(<16 x i8> %22, i32 216)
-  %53 = call float @llvm.SI.load.const(<16 x i8> %22, i32 220)
-  %54 = call float @llvm.SI.load.const(<16 x i8> %22, i32 236)
-  %55 = call float @llvm.SI.load.const(<16 x i8> %22, i32 240)
-  %56 = call float @llvm.SI.load.const(<16 x i8> %22, i32 244)
-  %57 = call float @llvm.SI.load.const(<16 x i8> %22, i32 248)
-  %58 = call float @llvm.SI.load.const(<16 x i8> %22, i32 252)
-  %59 = call float @llvm.SI.load.const(<16 x i8> %22, i32 256)
-  %60 = call float @llvm.SI.load.const(<16 x i8> %22, i32 260)
-  %61 = call float @llvm.SI.load.const(<16 x i8> %22, i32 264)
-  %62 = call float @llvm.SI.load.const(<16 x i8> %22, i32 268)
-  %63 = call float @llvm.SI.load.const(<16 x i8> %22, i32 272)
-  %64 = call float @llvm.SI.load.const(<16 x i8> %22, i32 276)
-  %65 = call float @llvm.SI.load.const(<16 x i8> %22, i32 280)
-  %66 = call float @llvm.SI.load.const(<16 x i8> %22, i32 284)
-  %67 = call float @llvm.SI.load.const(<16 x i8> %22, i32 288)
-  %68 = call float @llvm.SI.load.const(<16 x i8> %22, i32 292)
-  %69 = call float @llvm.SI.load.const(<16 x i8> %22, i32 464)
-  %70 = call float @llvm.SI.load.const(<16 x i8> %22, i32 468)
-  %71 = call float @llvm.SI.load.const(<16 x i8> %22, i32 472)
-  %72 = call float @llvm.SI.load.const(<16 x i8> %22, i32 496)
-  %73 = call float @llvm.SI.load.const(<16 x i8> %22, i32 500)
-  %74 = call float @llvm.SI.load.const(<16 x i8> %22, i32 504)
-  %75 = call float @llvm.SI.load.const(<16 x i8> %22, i32 512)
-  %76 = call float @llvm.SI.load.const(<16 x i8> %22, i32 516)
-  %77 = call float @llvm.SI.load.const(<16 x i8> %22, i32 524)
-  %78 = call float @llvm.SI.load.const(<16 x i8> %22, i32 532)
-  %79 = call float @llvm.SI.load.const(<16 x i8> %22, i32 536)
-  %80 = call float @llvm.SI.load.const(<16 x i8> %22, i32 540)
-  %81 = call float @llvm.SI.load.const(<16 x i8> %22, i32 544)
-  %82 = call float @llvm.SI.load.const(<16 x i8> %22, i32 548)
-  %83 = call float @llvm.SI.load.const(<16 x i8> %22, i32 552)
-  %84 = call float @llvm.SI.load.const(<16 x i8> %22, i32 556)
-  %85 = call float @llvm.SI.load.const(<16 x i8> %22, i32 560)
-  %86 = call float @llvm.SI.load.const(<16 x i8> %22, i32 564)
-  %87 = call float @llvm.SI.load.const(<16 x i8> %22, i32 568)
-  %88 = call float @llvm.SI.load.const(<16 x i8> %22, i32 572)
-  %89 = call float @llvm.SI.load.const(<16 x i8> %22, i32 576)
-  %90 = call float @llvm.SI.load.const(<16 x i8> %22, i32 580)
-  %91 = call float @llvm.SI.load.const(<16 x i8> %22, i32 584)
-  %92 = call float @llvm.SI.load.const(<16 x i8> %22, i32 588)
-  %93 = call float @llvm.SI.load.const(<16 x i8> %22, i32 592)
-  %94 = call float @llvm.SI.load.const(<16 x i8> %22, i32 596)
-  %95 = call float @llvm.SI.load.const(<16 x i8> %22, i32 600)
-  %96 = call float @llvm.SI.load.const(<16 x i8> %22, i32 604)
-  %97 = call float @llvm.SI.load.const(<16 x i8> %22, i32 608)
-  %98 = call float @llvm.SI.load.const(<16 x i8> %22, i32 612)
-  %99 = call float @llvm.SI.load.const(<16 x i8> %22, i32 616)
-  %100 = call float @llvm.SI.load.const(<16 x i8> %22, i32 624)
-  %101 = call float @llvm.SI.load.const(<16 x i8> %22, i32 628)
-  %102 = call float @llvm.SI.load.const(<16 x i8> %22, i32 632)
-  %103 = call float @llvm.SI.load.const(<16 x i8> %22, i32 636)
-  %104 = call float @llvm.SI.load.const(<16 x i8> %22, i32 640)
-  %105 = call float @llvm.SI.load.const(<16 x i8> %22, i32 644)
-  %106 = call float @llvm.SI.load.const(<16 x i8> %22, i32 648)
-  %107 = call float @llvm.SI.load.const(<16 x i8> %22, i32 652)
-  %108 = call float @llvm.SI.load.const(<16 x i8> %22, i32 656)
-  %109 = call float @llvm.SI.load.const(<16 x i8> %22, i32 660)
-  %110 = call float @llvm.SI.load.const(<16 x i8> %22, i32 664)
-  %111 = call float @llvm.SI.load.const(<16 x i8> %22, i32 668)
-  %112 = call float @llvm.SI.load.const(<16 x i8> %22, i32 672)
-  %113 = call float @llvm.SI.load.const(<16 x i8> %22, i32 676)
-  %114 = call float @llvm.SI.load.const(<16 x i8> %22, i32 680)
-  %115 = call float @llvm.SI.load.const(<16 x i8> %22, i32 684)
-  %116 = call float @llvm.SI.load.const(<16 x i8> %22, i32 688)
-  %117 = call float @llvm.SI.load.const(<16 x i8> %22, i32 692)
-  %118 = call float @llvm.SI.load.const(<16 x i8> %22, i32 696)
-  %119 = call float @llvm.SI.load.const(<16 x i8> %22, i32 700)
-  %120 = call float @llvm.SI.load.const(<16 x i8> %22, i32 704)
-  %121 = call float @llvm.SI.load.const(<16 x i8> %22, i32 708)
-  %122 = call float @llvm.SI.load.const(<16 x i8> %22, i32 712)
-  %123 = call float @llvm.SI.load.const(<16 x i8> %22, i32 716)
-  %124 = call float @llvm.SI.load.const(<16 x i8> %22, i32 864)
-  %125 = call float @llvm.SI.load.const(<16 x i8> %22, i32 868)
-  %126 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 0
-  %127 = load <32 x i8>, <32 x i8> addrspace(2)* %126, !tbaa !0
-  %128 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 0
-  %129 = load <16 x i8>, <16 x i8> addrspace(2)* %128, !tbaa !0
-  %130 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 1
-  %131 = load <32 x i8>, <32 x i8> addrspace(2)* %130, !tbaa !0
-  %132 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 1
-  %133 = load <16 x i8>, <16 x i8> addrspace(2)* %132, !tbaa !0
-  %134 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 2
-  %135 = load <32 x i8>, <32 x i8> addrspace(2)* %134, !tbaa !0
-  %136 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 2
-  %137 = load <16 x i8>, <16 x i8> addrspace(2)* %136, !tbaa !0
-  %138 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 3
-  %139 = load <32 x i8>, <32 x i8> addrspace(2)* %138, !tbaa !0
-  %140 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 3
-  %141 = load <16 x i8>, <16 x i8> addrspace(2)* %140, !tbaa !0
-  %142 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 4
-  %143 = load <32 x i8>, <32 x i8> addrspace(2)* %142, !tbaa !0
-  %144 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 4
-  %145 = load <16 x i8>, <16 x i8> addrspace(2)* %144, !tbaa !0
-  %146 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 5
-  %147 = load <32 x i8>, <32 x i8> addrspace(2)* %146, !tbaa !0
-  %148 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 5
-  %149 = load <16 x i8>, <16 x i8> addrspace(2)* %148, !tbaa !0
-  %150 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 6
-  %151 = load <32 x i8>, <32 x i8> addrspace(2)* %150, !tbaa !0
-  %152 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 6
-  %153 = load <16 x i8>, <16 x i8> addrspace(2)* %152, !tbaa !0
-  %154 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 7
-  %155 = load <32 x i8>, <32 x i8> addrspace(2)* %154, !tbaa !0
-  %156 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 7
-  %157 = load <16 x i8>, <16 x i8> addrspace(2)* %156, !tbaa !0
-  %158 = getelementptr [16 x <32 x i8>], [16 x <32 x i8>] addrspace(2)* %2, i64 0, i32 8
-  %159 = load <32 x i8>, <32 x i8> addrspace(2)* %158, !tbaa !0
-  %160 = getelementptr [32 x <16 x i8>], [32 x <16 x i8>] addrspace(2)* %1, i64 0, i32 8
-  %161 = load <16 x i8>, <16 x i8> addrspace(2)* %160, !tbaa !0
-  %162 = fcmp ugt float %17, 0.000000e+00
-  %163 = select i1 %162, float 1.000000e+00, float 0.000000e+00
-  %164 = call float @llvm.SI.fs.interp(i32 0, i32 0, i32 %4, <2 x i32> %6)
-  %165 = call float @llvm.SI.fs.interp(i32 1, i32 0, i32 %4, <2 x i32> %6)
-  %166 = call float @llvm.SI.fs.interp(i32 2, i32 0, i32 %4, <2 x i32> %6)
-  %167 = call float @llvm.SI.fs.interp(i32 3, i32 0, i32 %4, <2 x i32> %6)
-  %168 = call float @llvm.SI.fs.interp(i32 0, i32 1, i32 %4, <2 x i32> %6)
-  %169 = call float @llvm.SI.fs.interp(i32 1, i32 1, i32 %4, <2 x i32> %6)
-  %170 = call float @llvm.SI.fs.interp(i32 2, i32 1, i32 %4, <2 x i32> %6)
-  %171 = call float @llvm.SI.fs.interp(i32 3, i32 1, i32 %4, <2 x i32> %6)
-  %172 = call float @llvm.SI.fs.interp(i32 0, i32 2, i32 %4, <2 x i32> %6)
-  %173 = call float @llvm.SI.fs.interp(i32 1, i32 2, i32 %4, <2 x i32> %6)
-  %174 = call float @llvm.SI.fs.interp(i32 2, i32 2, i32 %4, <2 x i32> %6)
-  %175 = call float @llvm.SI.fs.interp(i32 3, i32 2, i32 %4, <2 x i32> %6)
-  %176 = call float @llvm.SI.fs.interp(i32 0, i32 3, i32 %4, <2 x i32> %6)
-  %177 = call float @llvm.SI.fs.interp(i32 1, i32 3, i32 %4, <2 x i32> %6)
-  %178 = call float @llvm.SI.fs.interp(i32 2, i32 3, i32 %4, <2 x i32> %6)
-  %179 = call float @llvm.SI.fs.interp(i32 3, i32 3, i32 %4, <2 x i32> %6)
-  %180 = call float @llvm.SI.fs.interp(i32 0, i32 4, i32 %4, <2 x i32> %6)
-  %181 = call float @llvm.SI.fs.interp(i32 1, i32 4, i32 %4, <2 x i32> %6)
-  %182 = call float @llvm.SI.fs.interp(i32 2, i32 4, i32 %4, <2 x i32> %6)
-  %183 = call float @llvm.SI.fs.interp(i32 3, i32 4, i32 %4, <2 x i32> %6)
-  %184 = call float @llvm.SI.fs.interp(i32 0, i32 5, i32 %4, <2 x i32> %6)
-  %185 = call float @llvm.SI.fs.interp(i32 1, i32 5, i32 %4, <2 x i32> %6)
-  %186 = call float @llvm.SI.fs.interp(i32 2, i32 5, i32 %4, <2 x i32> %6)
-  %187 = call float @llvm.SI.fs.interp(i32 3, i32 5, i32 %4, <2 x i32> %6)
-  %188 = call float @llvm.SI.fs.interp(i32 0, i32 6, i32 %4, <2 x i32> %6)
-  %189 = call float @llvm.SI.fs.interp(i32 1, i32 6, i32 %4, <2 x i32> %6)
-  %190 = call float @llvm.SI.fs.interp(i32 2, i32 6, i32 %4, <2 x i32> %6)
-  %191 = call float @llvm.SI.fs.interp(i32 3, i32 6, i32 %4, <2 x i32> %6)
-  %192 = call float @llvm.SI.fs.interp(i32 0, i32 7, i32 %4, <2 x i32> %6)
-  %193 = call float @llvm.SI.fs.interp(i32 1, i32 7, i32 %4, <2 x i32> %6)
-  %194 = call float @llvm.SI.fs.interp(i32 2, i32 7, i32 %4, <2 x i32> %6)
-  %195 = call float @llvm.SI.fs.interp(i32 3, i32 7, i32 %4, <2 x i32> %6)
-  %196 = fmul float %14, %124
-  %197 = fadd float %196, %125
-  %198 = call float @llvm.AMDIL.clamp.(float %163, float 0.000000e+00, float 1.000000e+00)
-  %199 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
-  %200 = call float @llvm.AMDIL.clamp.(float 0.000000e+00, float 0.000000e+00, float 1.000000e+00)
-  %201 = call float @llvm.AMDIL.clamp.(float 1.000000e+00, float 0.000000e+00, float 1.000000e+00)
-  %202 = bitcast float %198 to i32
-  %203 = icmp ne i32 %202, 0
-  %. = select i1 %203, float -1.000000e+00, float 1.000000e+00
-  %204 = fsub float -0.000000e+00, %164
-  %205 = fadd float %44, %204
-  %206 = fsub float -0.000000e+00, %165
-  %207 = fadd float %45, %206
-  %208 = fsub float -0.000000e+00, %166
-  %209 = fadd float %46, %208
-  %210 = fmul float %205, %205
-  %211 = fmul float %207, %207
-  %212 = fadd float %211, %210
-  %213 = fmul float %209, %209
-  %214 = fadd float %212, %213
-  %215 = call float @llvm.AMDGPU.rsq.f32(float %214)
-  %216 = fmul float %205, %215
-  %217 = fmul float %207, %215
-  %218 = fmul float %209, %215
-  %219 = fmul float %., %54
-  %220 = fmul float %13, %47
-  %221 = fmul float %197, %48
-  %222 = bitcast float %174 to i32
-  %223 = bitcast float %175 to i32
-  %224 = insertelement <2 x i32> undef, i32 %222, i32 0
-  %225 = insertelement <2 x i32> %224, i32 %223, i32 1
-  %226 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %225, <32 x i8> %131, <16 x i8> %133, i32 2)
-  %227 = extractelement <4 x float> %226, i32 0
-  %228 = extractelement <4 x float> %226, i32 1
-  %229 = extractelement <4 x float> %226, i32 2
-  %230 = extractelement <4 x float> %226, i32 3
-  %231 = fmul float %227, 0x4012611180000000
-  %232 = fmul float %228, 0x4012611180000000
-  %233 = fmul float %229, 0x4012611180000000
-  %234 = call float @llvm.AMDGPU.lrp(float %27, float %231, float 1.000000e+00)
-  %235 = call float @llvm.AMDGPU.lrp(float %27, float %232, float 1.000000e+00)
-  %236 = call float @llvm.AMDGPU.lrp(float %27, float %233, float 1.000000e+00)
-  %237 = fmul float %216, %184
-  %238 = fmul float %217, %185
-  %239 = fadd float %238, %237
-  %240 = fmul float %218, %186
-  %241 = fadd float %239, %240
-  %242 = fmul float %216, %187
-  %243 = fmul float %217, %188
-  %244 = fadd float %243, %242
-  %245 = fmul float %218, %189
-  %246 = fadd float %244, %245
-  %247 = fmul float %216, %190
-  %248 = fmul float %217, %191
-  %249 = fadd float %248, %247
-  %250 = fmul float %218, %192
-  %251 = fadd float %249, %250
-  %252 = call float @llvm.AMDIL.clamp.(float %251, float 0.000000e+00, float 1.000000e+00)
-  %253 = fmul float %214, 0x3F5A36E2E0000000
-  %254 = call float @llvm.AMDIL.clamp.(float %253, float 0.000000e+00, float 1.000000e+00)
-  %255 = fsub float -0.000000e+00, %254
-  %256 = fadd float 1.000000e+00, %255
-  %257 = call float @llvm.pow.f32(float %252, float 2.500000e-01)
-  %258 = fmul float %39, %257
-  %259 = fmul float %241, %258
-  %260 = fmul float %246, %258
-  %261 = fmul float %259, %230
-  %262 = fmul float %260, %230
-  %263 = fadd float %252, 0x3EE4F8B580000000
-  %264 = fsub float -0.000000e+00, %252
-  %265 = fadd float 1.000000e+00, %264
-  %266 = fmul float 1.200000e+01, %265
-  %267 = fadd float %266, 4.000000e+00
-  %268 = fsub float -0.000000e+00, %267
-  %269 = fmul float %268, %263
-  %270 = fsub float -0.000000e+00, %267
-  %271 = fmul float %270, %263
-  %272 = fsub float -0.000000e+00, %267
-  %273 = fmul float %272, %263
-  %274 = fdiv float 1.000000e+00, %269
-  %275 = fdiv float 1.000000e+00, %271
-  %276 = fdiv float 1.000000e+00, %273
-  %277 = fmul float %261, %274
-  %278 = fmul float %262, %275
-  %279 = fmul float %263, %276
-  br label %LOOP
-
-LOOP:                                             ; preds = %LOOP, %main_body
-  %temp144.0 = phi float [ 1.000000e+00, %main_body ], [ %292, %LOOP ]
-  %temp168.0 = phi float [ %176, %main_body ], [ %288, %LOOP ]
-  %temp169.0 = phi float [ %177, %main_body ], [ %289, %LOOP ]
-  %temp170.0 = phi float [ %256, %main_body ], [ %290, %LOOP ]
-  %280 = bitcast float %temp168.0 to i32
-  %281 = bitcast float %temp169.0 to i32
-  %282 = insertelement <4 x i32> undef, i32 %280, i32 0
-  %283 = insertelement <4 x i32> %282, i32 %281, i32 1
-  %284 = insertelement <4 x i32> %283, i32 0, i32 2
-  %285 = insertelement <4 x i32> %284, i32 undef, i32 3
-  %286 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %285, <32 x i8> %147, <16 x i8> %149, i32 2)
-  %287 = extractelement <4 x float> %286, i32 3
-  %288 = fadd float %temp168.0, %277
-  %289 = fadd float %temp169.0, %278
-  %290 = fadd float %temp170.0, %279
-  %291 = fsub float -0.000000e+00, %287
-  %292 = fadd float %290, %291
-  %293 = fcmp oge float 0.000000e+00, %292
-  %294 = sext i1 %293 to i32
-  %295 = bitcast i32 %294 to float
-  %296 = bitcast float %295 to i32
-  %297 = icmp ne i32 %296, 0
-  br i1 %297, label %IF189, label %LOOP
+attributes #1 = { readnone }
+attributes #2 = { nounwind readnone }
+attributes #3 = { nounwind readonly }
 
-IF189:                                            ; preds = %LOOP
-  %298 = extractelement <4 x float> %286, i32 0
-  %299 = extractelement <4 x float> %286, i32 1
-  %300 = extractelement <4 x float> %286, i32 2
-  %301 = fsub float -0.000000e+00, %292
-  %302 = fadd float %temp144.0, %301
-  %303 = fdiv float 1.000000e+00, %302
-  %304 = fmul float %292, %303
-  %305 = fadd float %304, -1.000000e+00
-  %306 = fmul float %305, %277
-  %307 = fadd float %306, %288
-  %308 = fmul float %305, %278
-  %309 = fadd float %308, %289
-  %310 = fsub float -0.000000e+00, %176
-  %311 = fadd float %307, %310
-  %312 = fsub float -0.000000e+00, %177
-  %313 = fadd float %309, %312
-  %314 = fadd float %176, %311
-  %315 = fadd float %177, %313
-  %316 = fmul float %311, %67
-  %317 = fmul float %313, %68
-  %318 = fmul float %316, %55
-  %319 = fmul float %316, %56
-  %320 = fmul float %317, %57
-  %321 = fadd float %320, %318
-  %322 = fmul float %317, %58
-  %323 = fadd float %322, %319
-  %324 = fadd float %178, %321
-  %325 = fadd float %179, %323
-  %326 = fmul float %316, %59
-  %327 = fmul float %316, %60
-  %328 = fmul float %316, %61
-  %329 = fmul float %316, %62
-  %330 = fmul float %317, %63
-  %331 = fadd float %330, %326
-  %332 = fmul float %317, %64
-  %333 = fadd float %332, %327
-  %334 = fmul float %317, %65
-  %335 = fadd float %334, %328
-  %336 = fmul float %317, %66
-  %337 = fadd float %336, %329
-  %338 = fadd float %168, %331
-  %339 = fadd float %169, %333
-  %340 = fadd float %170, %335
-  %341 = fadd float %171, %337
-  %342 = bitcast float %338 to i32
-  %343 = bitcast float %339 to i32
-  %344 = insertelement <2 x i32> undef, i32 %342, i32 0
-  %345 = insertelement <2 x i32> %344, i32 %343, i32 1
-  %346 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %345, <32 x i8> %135, <16 x i8> %137, i32 2)
-  %347 = extractelement <4 x float> %346, i32 0
-  %348 = extractelement <4 x float> %346, i32 1
-  %349 = extractelement <4 x float> %346, i32 2
-  %350 = extractelement <4 x float> %346, i32 3
-  %351 = fmul float %347, %23
-  %352 = fmul float %348, %24
-  %353 = fmul float %349, %25
-  %354 = fmul float %350, %26
-  %355 = fmul float %351, %180
-  %356 = fmul float %352, %181
-  %357 = fmul float %353, %182
-  %358 = fmul float %354, %183
-  %359 = fsub float -0.000000e+00, %350
-  %360 = fadd float 1.000000e+00, %359
-  %361 = fmul float %360, %49
-  %362 = call float @llvm.AMDGPU.lrp(float %361, float %347, float %355)
-  %363 = call float @llvm.AMDGPU.lrp(float %361, float %348, float %356)
-  %364 = call float @llvm.AMDGPU.lrp(float %361, float %349, float %357)
-  %365 = bitcast float %340 to i32
-  %366 = bitcast float %341 to i32
-  %367 = insertelement <2 x i32> undef, i32 %365, i32 0
-  %368 = insertelement <2 x i32> %367, i32 %366, i32 1
-  %369 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %368, <32 x i8> %151, <16 x i8> %153, i32 2)
-  %370 = extractelement <4 x float> %369, i32 2
-  %371 = fmul float %362, %234
-  %372 = fmul float %363, %235
-  %373 = fmul float %364, %236
-  %374 = fmul float %358, %230
-  %375 = bitcast float %314 to i32
-  %376 = bitcast float %315 to i32
-  %377 = insertelement <2 x i32> undef, i32 %375, i32 0
-  %378 = insertelement <2 x i32> %377, i32 %376, i32 1
-  %379 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %378, <32 x i8> %139, <16 x i8> %141, i32 2)
-  %380 = extractelement <4 x float> %379, i32 0
-  %381 = extractelement <4 x float> %379, i32 1
-  %382 = extractelement <4 x float> %379, i32 2
-  %383 = extractelement <4 x float> %379, i32 3
-  %384 = fcmp olt float 0.000000e+00, %382
-  %385 = sext i1 %384 to i32
-  %386 = bitcast i32 %385 to float
-  %387 = bitcast float %386 to i32
-  %388 = icmp ne i32 %387, 0
-  %.224 = select i1 %388, float %381, float %380
-  %.225 = select i1 %388, float %383, float %381
-  %389 = bitcast float %324 to i32
-  %390 = bitcast float %325 to i32
-  %391 = insertelement <2 x i32> undef, i32 %389, i32 0
-  %392 = insertelement <2 x i32> %391, i32 %390, i32 1
-  %393 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %392, <32 x i8> %143, <16 x i8> %145, i32 2)
-  %394 = extractelement <4 x float> %393, i32 0
-  %395 = extractelement <4 x float> %393, i32 1
-  %396 = extractelement <4 x float> %393, i32 2
-  %397 = extractelement <4 x float> %393, i32 3
-  %398 = fcmp olt float 0.000000e+00, %396
-  %399 = sext i1 %398 to i32
-  %400 = bitcast i32 %399 to float
-  %401 = bitcast float %400 to i32
-  %402 = icmp ne i32 %401, 0
-  %temp112.1 = select i1 %402, float %395, float %394
-  %temp113.1 = select i1 %402, float %397, float %395
-  %403 = fmul float %.224, 2.000000e+00
-  %404 = fadd float %403, -1.000000e+00
-  %405 = fmul float %.225, 2.000000e+00
-  %406 = fadd float %405, -1.000000e+00
-  %407 = fmul float %temp112.1, 2.000000e+00
-  %408 = fadd float %407, -1.000000e+00
-  %409 = fmul float %temp113.1, 2.000000e+00
-  %410 = fadd float %409, -1.000000e+00
-  %411 = fsub float -0.000000e+00, %404
-  %412 = fmul float %411, %35
-  %413 = fsub float -0.000000e+00, %406
-  %414 = fmul float %413, %35
-  %415 = fsub float -0.000000e+00, %408
-  %416 = fmul float %415, %36
-  %417 = fsub float -0.000000e+00, %410
-  %418 = fmul float %417, %36
-  %419 = fmul float %416, %370
-  %420 = fmul float %418, %370
-  %421 = call float @fabs(float %412)
-  %422 = call float @fabs(float %414)
-  %423 = fsub float -0.000000e+00, %421
-  %424 = fadd float 1.000000e+00, %423
-  %425 = fsub float -0.000000e+00, %422
-  %426 = fadd float 1.000000e+00, %425
-  %427 = fmul float %424, %419
-  %428 = fadd float %427, %412
-  %429 = fmul float %426, %420
-  %430 = fadd float %429, %414
-  %431 = fmul float %428, %428
-  %432 = fmul float %430, %430
-  %433 = fadd float %431, %432
-  %434 = fsub float -0.000000e+00, %433
-  %435 = fadd float 0x3FF00068E0000000, %434
-  %436 = call float @llvm.AMDIL.clamp.(float %435, float 0.000000e+00, float 1.000000e+00)
-  %437 = call float @llvm.AMDGPU.rsq.f32(float %436)
-  %438 = fmul float %437, %436
-  %439 = fsub float -0.000000e+00, %436
-  %440 = call float @llvm.AMDGPU.cndlt(float %439, float %438, float 0.000000e+00)
-  %441 = fmul float %184, %428
-  %442 = fmul float %185, %428
-  %443 = fmul float %186, %428
-  %444 = fmul float %187, %430
-  %445 = fadd float %444, %441
-  %446 = fmul float %188, %430
-  %447 = fadd float %446, %442
-  %448 = fmul float %189, %430
-  %449 = fadd float %448, %443
-  %450 = fmul float %190, %440
-  %451 = fadd float %450, %445
-  %452 = fmul float %191, %440
-  %453 = fadd float %452, %447
-  %454 = fmul float %192, %440
-  %455 = fadd float %454, %449
-  %456 = fmul float %451, %451
-  %457 = fmul float %453, %453
-  %458 = fadd float %457, %456
-  %459 = fmul float %455, %455
-  %460 = fadd float %458, %459
-  %461 = call float @llvm.AMDGPU.rsq.f32(float %460)
-  %462 = fmul float %451, %461
-  %463 = fmul float %453, %461
-  %464 = fmul float %455, %461
-  %465 = fcmp olt float 0.000000e+00, %219
-  %466 = sext i1 %465 to i32
-  %467 = bitcast i32 %466 to float
-  %468 = bitcast float %467 to i32
-  %469 = icmp ne i32 %468, 0
-  br i1 %469, label %IF198, label %ENDIF197
-
-IF198:                                            ; preds = %IF189
-  %470 = fsub float -0.000000e+00, %462
-  %471 = fsub float -0.000000e+00, %463
-  %472 = fsub float -0.000000e+00, %464
-  br label %ENDIF197
-
-ENDIF197:                                         ; preds = %IF189, %IF198
-  %temp14.0 = phi float [ %472, %IF198 ], [ %464, %IF189 ]
-  %temp13.0 = phi float [ %471, %IF198 ], [ %463, %IF189 ]
-  %temp12.0 = phi float [ %470, %IF198 ], [ %462, %IF189 ]
-  %473 = bitcast float %220 to i32
-  %474 = bitcast float %221 to i32
-  %475 = insertelement <2 x i32> undef, i32 %473, i32 0
-  %476 = insertelement <2 x i32> %475, i32 %474, i32 1
-  %477 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %476, <32 x i8> %159, <16 x i8> %161, i32 2)
-  %478 = extractelement <4 x float> %477, i32 0
-  %479 = extractelement <4 x float> %477, i32 1
-  %480 = extractelement <4 x float> %477, i32 2
-  %481 = extractelement <4 x float> %477, i32 3
-  %482 = fmul float %478, %40
-  %483 = fadd float %482, %41
-  %484 = fmul float %479, %40
-  %485 = fadd float %484, %41
-  %486 = fmul float %480, %40
-  %487 = fadd float %486, %41
-  %488 = fmul float %481, %42
-  %489 = fadd float %488, %43
-  %490 = bitcast float %172 to i32
-  %491 = bitcast float %173 to i32
-  %492 = insertelement <2 x i32> undef, i32 %490, i32 0
-  %493 = insertelement <2 x i32> %492, i32 %491, i32 1
-  %494 = call <4 x float> @llvm.SI.sample.v2i32(<2 x i32> %493, <32 x i8> %155, <16 x i8> %157, i32 2)
-  %495 = extractelement <4 x float> %494, i32 0
-  %496 = extractelement <4 x float> %494, i32 1
-  %497 = extractelement <4 x float> %494, i32 2
-  %498 = extractelement <4 x float> %494, i32 3
-  %499 = fmul float %498, 3.200000e+01
-  %500 = fadd float %499, -1.600000e+01
-  %501 = call float @llvm.AMDIL.exp.(float %500)
-  %502 = fmul float %495, %501
-  %503 = fmul float %496, %501
-  %504 = fmul float %497, %501
-  %505 = fmul float %28, %502
-  %506 = fadd float %505, %193
-  %507 = fmul float %29, %503
-  %508 = fadd float %507, %194
-  %509 = fmul float %30, %504
-  %510 = fadd float %509, %195
-  %511 = fmul float %506, %489
-  %512 = fmul float %508, %489
-  %513 = fmul float %510, %489
-  %514 = fmul float %489, 5.000000e-01
-  %515 = fadd float %514, 5.000000e-01
-  %516 = fmul float %483, %515
-  %517 = fadd float %516, %511
-  %518 = fmul float %485, %515
-  %519 = fadd float %518, %512
-  %520 = fmul float %487, %515
-  %521 = fadd float %520, %513
-  %522 = fmul float %517, %371
-  %523 = fmul float %519, %372
-  %524 = fmul float %521, %373
-  %525 = fmul float %428, 0x3FDB272440000000
-  %526 = fmul float %430, 0xBFDB272440000000
-  %527 = fadd float %526, %525
-  %528 = fmul float %440, 0x3FE99999A0000000
-  %529 = fadd float %527, %528
-  %530 = fmul float %529, 5.000000e-01
-  %531 = fadd float %530, 0x3FE3333340000000
-  %532 = fmul float %531, %531
-  %533 = fmul float %522, %532
-  %534 = fmul float %523, %532
-  %535 = fmul float %524, %532
-  %536 = fsub float -0.000000e+00, %72
-  %537 = fsub float -0.000000e+00, %73
-  %538 = fsub float -0.000000e+00, %74
-  %539 = fmul float %temp12.0, %536
-  %540 = fmul float %temp13.0, %537
-  %541 = fadd float %540, %539
-  %542 = fmul float %temp14.0, %538
-  %543 = fadd float %541, %542
-  %544 = call float @llvm.AMDIL.clamp.(float %543, float 0.000000e+00, float 1.000000e+00)
-  %545 = fmul float %371, %544
-  %546 = fmul float %372, %544
-  %547 = fmul float %373, %544
-  %548 = fmul float %545, %69
-  %549 = fmul float %546, %70
-  %550 = fmul float %547, %71
-  %551 = fsub float -0.000000e+00, %164
-  %552 = fadd float %97, %551
-  %553 = fsub float -0.000000e+00, %165
-  %554 = fadd float %98, %553
-  %555 = fsub float -0.000000e+00, %166
-  %556 = fadd float %99, %555
-  %557 = fmul float %552, %552
-  %558 = fmul float %554, %554
-  %559 = fadd float %558, %557
-  %560 = fmul float %556, %556
-  %561 = fadd float %559, %560
-  %562 = call float @llvm.AMDGPU.rsq.f32(float %561)
-  %563 = fmul float %562, %561
-  %564 = fsub float -0.000000e+00, %561
-  %565 = call float @llvm.AMDGPU.cndlt(float %564, float %563, float 0.000000e+00)
-  %566 = fsub float -0.000000e+00, %84
-  %567 = fadd float %565, %566
-  %568 = fsub float -0.000000e+00, %83
-  %569 = fadd float %565, %568
-  %570 = fsub float -0.000000e+00, %82
-  %571 = fadd float %565, %570
-  %572 = fsub float -0.000000e+00, %84
-  %573 = fadd float %83, %572
-  %574 = fsub float -0.000000e+00, %83
-  %575 = fadd float %82, %574
-  %576 = fsub float -0.000000e+00, %82
-  %577 = fadd float %81, %576
-  %578 = fdiv float 1.000000e+00, %573
-  %579 = fdiv float 1.000000e+00, %575
-  %580 = fdiv float 1.000000e+00, %577
-  %581 = fmul float %567, %578
-  %582 = fmul float %569, %579
-  %583 = fmul float %571, %580
-  %584 = fcmp olt float %565, %83
-  %585 = sext i1 %584 to i32
-  %586 = bitcast i32 %585 to float
-  %587 = bitcast float %586 to i32
-  %588 = icmp ne i32 %587, 0
-  br i1 %588, label %ENDIF200, label %ELSE202
-
-ELSE202:                                          ; preds = %ENDIF197
-  %589 = fcmp olt float %565, %82
-  %590 = sext i1 %589 to i32
-  %591 = bitcast i32 %590 to float
-  %592 = bitcast float %591 to i32
-  %593 = icmp ne i32 %592, 0
-  br i1 %593, label %ENDIF200, label %ELSE205
-
-ENDIF200:                                         ; preds = %ELSE205, %ELSE202, %ENDIF197
-  %temp80.0 = phi float [ %581, %ENDIF197 ], [ %.226, %ELSE205 ], [ %582, %ELSE202 ]
-  %temp88.0 = phi float [ %122, %ENDIF197 ], [ %.227, %ELSE205 ], [ %120, %ELSE202 ]
-  %temp89.0 = phi float [ %123, %ENDIF197 ], [ %.228, %ELSE205 ], [ %121, %ELSE202 ]
-  %temp90.0 = phi float [ %120, %ENDIF197 ], [ %116, %ELSE205 ], [ %118, %ELSE202 ]
-  %temp91.0 = phi float [ %121, %ENDIF197 ], [ %117, %ELSE205 ], [ %119, %ELSE202 ]
-  %594 = fcmp olt float %565, %83
-  %595 = sext i1 %594 to i32
-  %596 = bitcast i32 %595 to float
-  %597 = bitcast float %596 to i32
-  %598 = icmp ne i32 %597, 0
-  br i1 %598, label %ENDIF209, label %ELSE211
-
-ELSE205:                                          ; preds = %ELSE202
-  %599 = fcmp olt float %565, %81
-  %600 = sext i1 %599 to i32
-  %601 = bitcast i32 %600 to float
-  %602 = bitcast float %601 to i32
-  %603 = icmp ne i32 %602, 0
-  %.226 = select i1 %603, float %583, float 1.000000e+00
-  %.227 = select i1 %603, float %118, float %116
-  %.228 = select i1 %603, float %119, float %117
-  br label %ENDIF200
-
-ELSE211:                                          ; preds = %ENDIF200
-  %604 = fcmp olt float %565, %82
-  %605 = sext i1 %604 to i32
-  %606 = bitcast i32 %605 to float
-  %607 = bitcast float %606 to i32
-  %608 = icmp ne i32 %607, 0
-  br i1 %608, label %ENDIF209, label %ELSE214
-
-ENDIF209:                                         ; preds = %ELSE214, %ELSE211, %ENDIF200
-  %temp52.0 = phi float [ %108, %ENDIF200 ], [ %100, %ELSE214 ], [ %104, %ELSE211 ]
-  %temp53.0 = phi float [ %109, %ENDIF200 ], [ %101, %ELSE214 ], [ %105, %ELSE211 ]
-  %temp54.0 = phi float [ %110, %ENDIF200 ], [ %102, %ELSE214 ], [ %106, %ELSE211 ]
-  %temp55.0 = phi float [ %111, %ENDIF200 ], [ %103, %ELSE214 ], [ %107, %ELSE211 ]
-  %temp68.0 = phi float [ %112, %ENDIF200 ], [ %.230, %ELSE214 ], [ %108, %ELSE211 ]
-  %temp69.0 = phi float [ %113, %ENDIF200 ], [ %.231, %ELSE214 ], [ %109, %ELSE211 ]
-  %temp70.0 = phi float [ %114, %ENDIF200 ], [ %.232, %ELSE214 ], [ %110, %ELSE211 ]
-  %temp71.0 = phi float [ %115, %ENDIF200 ], [ %.233, %ELSE214 ], [ %111, %ELSE211 ]
-  %609 = fmul float %164, %85
-  %610 = fmul float %165, %86
-  %611 = fadd float %609, %610
-  %612 = fmul float %166, %87
-  %613 = fadd float %611, %612
-  %614 = fmul float %167, %88
-  %615 = fadd float %613, %614
-  %616 = fmul float %164, %89
-  %617 = fmul float %165, %90
-  %618 = fadd float %616, %617
-  %619 = fmul float %166, %91
-  %620 = fadd float %618, %619
-  %621 = fmul float %167, %92
-  %622 = fadd float %620, %621
-  %623 = fmul float %164, %93
-  %624 = fmul float %165, %94
-  %625 = fadd float %623, %624
-  %626 = fmul float %166, %95
-  %627 = fadd float %625, %626
-  %628 = fmul float %167, %96
-  %629 = fadd float %627, %628
-  %630 = fsub float -0.000000e+00, %78
-  %631 = fadd float 1.000000e+00, %630
-  %632 = call float @fabs(float %615)
-  %633 = call float @fabs(float %622)
-  %634 = fcmp oge float %631, %632
-  %635 = sext i1 %634 to i32
-  %636 = bitcast i32 %635 to float
-  %637 = bitcast float %636 to i32
-  %638 = and i32 %637, 1065353216
-  %639 = bitcast i32 %638 to float
-  %640 = fcmp oge float %631, %633
-  %641 = sext i1 %640 to i32
-  %642 = bitcast i32 %641 to float
-  %643 = bitcast float %642 to i32
-  %644 = and i32 %643, 1065353216
-  %645 = bitcast i32 %644 to float
-  %646 = fmul float %639, %645
-  %647 = fmul float %629, %646
-  %648 = fmul float %615, %temp68.0
-  %649 = fadd float %648, %temp70.0
-  %650 = fmul float %622, %temp69.0
-  %651 = fadd float %650, %temp71.0
-  %652 = fmul float %615, %temp52.0
-  %653 = fadd float %652, %temp54.0
-  %654 = fmul float %622, %temp53.0
-  %655 = fadd float %654, %temp55.0
-  %656 = fadd float %temp80.0, -1.000000e+00
-  %657 = fmul float %656, %77
-  %658 = fadd float %657, 1.000000e+00
-  %659 = call float @llvm.AMDIL.clamp.(float %658, float 0.000000e+00, float 1.000000e+00)
-  %660 = bitcast float %649 to i32
-  %661 = bitcast float %651 to i32
-  %662 = bitcast float 0.000000e+00 to i32
-  %663 = insertelement <4 x i32> undef, i32 %660, i32 0
-  %664 = insertelement <4 x i32> %663, i32 %661, i32 1
-  %665 = insertelement <4 x i32> %664, i32 %662, i32 2
-  %666 = insertelement <4 x i32> %665, i32 undef, i32 3
-  %667 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %666, <32 x i8> %127, <16 x i8> %129, i32 2)
-  %668 = extractelement <4 x float> %667, i32 0
-  %669 = extractelement <4 x float> %667, i32 1
-  %670 = bitcast float %653 to i32
-  %671 = bitcast float %655 to i32
-  %672 = bitcast float 0.000000e+00 to i32
-  %673 = insertelement <4 x i32> undef, i32 %670, i32 0
-  %674 = insertelement <4 x i32> %673, i32 %671, i32 1
-  %675 = insertelement <4 x i32> %674, i32 %672, i32 2
-  %676 = insertelement <4 x i32> %675, i32 undef, i32 3
-  %677 = call <4 x float> @llvm.SI.samplel.v4i32(<4 x i32> %676, <32 x i8> %127, <16 x i8> %129, i32 2)
-  %678 = extractelement <4 x float> %677, i32 0
-  %679 = extractelement <4 x float> %677, i32 1
-  %680 = fsub float -0.000000e+00, %669
-  %681 = fadd float 1.000000e+00, %680
-  %682 = fsub float -0.000000e+00, %679
-  %683 = fadd float 1.000000e+00, %682
-  %684 = fmul float %681, 2.500000e-01
-  %685 = fmul float %683, 2.500000e-01
-  %686 = fsub float -0.000000e+00, %684
-  %687 = fadd float %668, %686
-  %688 = fsub float -0.000000e+00, %685
-  %689 = fadd float %678, %688
-  %690 = fmul float %647, %temp88.0
-  %691 = fadd float %690, %temp89.0
-  %692 = fmul float %647, %temp90.0
-  %693 = fadd float %692, %temp91.0
-  %694 = call float @llvm.AMDIL.clamp.(float %691, float 0.000000e+00, float 1.000000e+00)
-  %695 = call float @llvm.AMDIL.clamp.(float %693, float 0.000000e+00, float 1.000000e+00)
-  %696 = fsub float -0.000000e+00, %694
-  %697 = fadd float %668, %696
-  %698 = fsub float -0.000000e+00, %695
-  %699 = fadd float %678, %698
-  %700 = fmul float %668, %668
-  %701 = fmul float %678, %678
-  %702 = fsub float -0.000000e+00, %700
-  %703 = fadd float %687, %702
-  %704 = fsub float -0.000000e+00, %701
-  %705 = fadd float %689, %704
-  %706 = fcmp uge float %703, %75
-  %707 = select i1 %706, float %703, float %75
-  %708 = fcmp uge float %705, %75
-  %709 = select i1 %708, float %705, float %75
-  %710 = fmul float %697, %697
-  %711 = fadd float %710, %707
-  %712 = fmul float %699, %699
-  %713 = fadd float %712, %709
-  %714 = fdiv float 1.000000e+00, %711
-  %715 = fdiv float 1.000000e+00, %713
-  %716 = fmul float %707, %714
-  %717 = fmul float %709, %715
-  %718 = fcmp oge float %697, 0.000000e+00
-  %719 = sext i1 %718 to i32
-  %720 = bitcast i32 %719 to float
-  %721 = bitcast float %720 to i32
-  %722 = icmp ne i32 %721, 0
-  %.229 = select i1 %722, float 1.000000e+00, float %716
-  %723 = fcmp oge float %699, 0.000000e+00
-  %724 = sext i1 %723 to i32
-  %725 = bitcast i32 %724 to float
-  %726 = bitcast float %725 to i32
-  %727 = icmp ne i32 %726, 0
-  %temp28.0 = select i1 %727, float 1.000000e+00, float %717
-  %728 = call float @llvm.AMDGPU.lrp(float %659, float %temp28.0, float %.229)
-  %729 = call float @llvm.pow.f32(float %728, float %76)
-  %730 = fmul float %729, %79
-  %731 = fadd float %730, %80
-  %732 = call float @llvm.AMDIL.clamp.(float %731, float 0.000000e+00, float 1.000000e+00)
-  %733 = fmul float %732, %732
-  %734 = fmul float 2.000000e+00, %732
-  %735 = fsub float -0.000000e+00, %734
-  %736 = fadd float 3.000000e+00, %735
-  %737 = fmul float %733, %736
-  %738 = fmul float %548, %737
-  %739 = fmul float %549, %737
-  %740 = fmul float %550, %737
-  %741 = fmul float %738, %515
-  %742 = fadd float %741, %533
-  %743 = fmul float %739, %515
-  %744 = fadd float %743, %534
-  %745 = fmul float %740, %515
-  %746 = fadd float %745, %535
-  %747 = call float @llvm.AMDGPU.lrp(float %230, float %287, float 1.000000e+00)
-  %748 = call float @llvm.AMDGPU.lrp(float %37, float %298, float 1.000000e+00)
-  %749 = call float @llvm.AMDGPU.lrp(float %37, float %299, float 1.000000e+00)
-  %750 = call float @llvm.AMDGPU.lrp(float %37, float %300, float 1.000000e+00)
-  %751 = call float @llvm.AMDGPU.lrp(float %38, float %747, float 1.000000e+00)
-  %752 = fmul float %748, %751
-  %753 = fmul float %749, %751
-  %754 = fmul float %750, %751
-  %755 = fmul float %742, %752
-  %756 = fmul float %744, %753
-  %757 = fmul float %746, %754
-  %758 = fmul float %temp12.0, %216
-  %759 = fmul float %temp13.0, %217
-  %760 = fadd float %759, %758
-  %761 = fmul float %temp14.0, %218
-  %762 = fadd float %760, %761
-  %763 = call float @fabs(float %762)
-  %764 = fmul float %763, %763
-  %765 = fmul float %764, %50
-  %766 = fadd float %765, %51
-  %767 = call float @llvm.AMDIL.clamp.(float %766, float 0.000000e+00, float 1.000000e+00)
-  %768 = fsub float -0.000000e+00, %767
-  %769 = fadd float 1.000000e+00, %768
-  %770 = fmul float %33, %769
-  %771 = fmul float %33, %769
-  %772 = fmul float %33, %769
-  %773 = fmul float %34, %769
-  %774 = call float @llvm.AMDGPU.lrp(float %770, float %31, float %755)
-  %775 = call float @llvm.AMDGPU.lrp(float %771, float %31, float %756)
-  %776 = call float @llvm.AMDGPU.lrp(float %772, float %31, float %757)
-  %777 = call float @llvm.AMDGPU.lrp(float %773, float %32, float %374)
-  %778 = fcmp uge float %774, 0x3E6FFFFE60000000
-  %779 = select i1 %778, float %774, float 0x3E6FFFFE60000000
-  %780 = fcmp uge float %775, 0x3E6FFFFE60000000
-  %781 = select i1 %780, float %775, float 0x3E6FFFFE60000000
-  %782 = fcmp uge float %776, 0x3E6FFFFE60000000
-  %783 = select i1 %782, float %776, float 0x3E6FFFFE60000000
-  %784 = fcmp uge float %779, 6.550400e+04
-  %785 = select i1 %784, float 6.550400e+04, float %779
-  %786 = fcmp uge float %781, 6.550400e+04
-  %787 = select i1 %786, float 6.550400e+04, float %781
-  %788 = fcmp uge float %783, 6.550400e+04
-  %789 = select i1 %788, float 6.550400e+04, float %783
-  %790 = fmul float %777, %52
-  %791 = fadd float %790, %53
-  %792 = call float @llvm.AMDIL.clamp.(float %791, float 0.000000e+00, float 1.000000e+00)
-  %793 = call i32 @llvm.SI.packf16(float %785, float %787)
-  %794 = bitcast i32 %793 to float
-  %795 = call i32 @llvm.SI.packf16(float %789, float %792)
-  %796 = bitcast i32 %795 to float
-  call void @llvm.SI.export(i32 15, i32 1, i32 1, i32 0, i32 1, float %794, float %796, float %794, float %796)
-  ret void
-
-ELSE214:                                          ; preds = %ELSE211
-  %797 = fcmp olt float %565, %81
-  %798 = sext i1 %797 to i32
-  %799 = bitcast i32 %798 to float
-  %800 = bitcast float %799 to i32
-  %801 = icmp ne i32 %800, 0
-  %.230 = select i1 %801, float %104, float %100
-  %.231 = select i1 %801, float %105, float %101
-  %.232 = select i1 %801, float %106, float %102
-  %.233 = select i1 %801, float %107, float %103
-  br label %ENDIF209
-}
-
-; Function Attrs: readnone
-declare float @llvm.AMDIL.clamp.(float, float, float) #2
-
-; Function Attrs: nounwind readnone
-declare <4 x float> @llvm.SI.sample.v2i32(<2 x i32>, <32 x i8>, <16 x i8>, i32) #1
-
-; Function Attrs: readnone
-declare float @llvm.AMDGPU.lrp(float, float, float) #2
-
-; Function Attrs: nounwind readnone
-declare <4 x float> @llvm.SI.samplel.v4i32(<4 x i32>, <32 x i8>, <16 x i8>, i32) #1
-
-; Function Attrs: readnone
-declare float @llvm.AMDGPU.cndlt(float, float, float) #2
-
-; Function Attrs: readnone
-declare float @llvm.AMDIL.exp.(float) #2
-
-attributes #0 = { "ShaderType"="0" }
-attributes #1 = { nounwind readnone }
-attributes #2 = { readnone }
-attributes #3 = { nounwind readonly }
-attributes #4 = { readonly }
+!0 = !{!1, !1, i64 0, i32 1}
+!1 = !{!"const", null}