У меня есть довольно большое, почти полноэкранное изображение, которое я собираюсь отображать на iPad. Изображение прозрачно примерно на 80%. Мне нужно на клиенте определить ограничивающую рамку непрозрачных пикселей, а затем обрезать до этой ограничивающей рамки.
Просматривая другие вопросы здесь, в StackOverflow, и читая некоторые документы CoreGraphics, я думаю, что мог бы сделать это следующим образом:
CGBitmapContextCreate(...) // Use this to render the image to a byte array
..
- iterate through this byte array to find the bounding box
..
CGImageCreateWithImageInRect(image, boundingRect);
Это только кажется очень неэффективным и неуклюжим. Есть ли что-то умное, что я могу сделать с масками CGImage или что-то, что использует ускорение графики устройства для этого?